DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo taz We at Mastodon A-FsA Song MeetUp Twitter Youtube Tumblr Flickr Wikipedia Bitcoin Facebook Bitmessage Betterplace Tor-Netzwerk https-everywhere
26.03.2016 Auch künstliche Intelligenz kann rassistisch werden
Sorry, most articles are not available in English yet

Twitter-User machten Microsofts Chatbot zu einem Rüpel

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

... nein, nicht "zu einem Rüpel" sondern zu einem Rassisten.

Microsoft wollte eine KI erschaffen, welche sich wie ein Teenager verhält, um natürlichere Kommunikation mit einer KI zu testen. Dazu stellte das Unternehmen den Chatbot Tay auf Twitter.

Sobald Tay online war, bombardierten ihn Twitter-Nutzer mit rassistischen Kommentaren, Beleidigungen und frauenfeindliche Beschimpfungen. Tay lernte und das führte dazu, dass er dieses Verhalten annahm und in demselben "Tonfall" seine Äußerungen tätigte.

Tay sollte eine lernende Maschine sein, um mit Menschen zu kommunizieren. Was wir aus dem Experiment lernen können ist, dass KI ohne Moral tatsächlich eine Gefahr werden kann.

Sagen wir dies laut und deutlich allen Konstrukteuren von Drohnen, den bereits fliegenden automatischen Tötungsmaschinen. Auch diese bekommen immer mehr "KI" programmiert, damit sie in "Notfällen" (Abriss der Funkverbindung oder Zerstörung der Leitstelle) ohne menschliche Unterstützung weiter handeln, also töten können.

Mehr dazu bei http://www.gulli.com/news/27273-twitter-user-machten-microsofts-chatbot-zu-einem-ruepel-2016-03-25


Kommentar: RE: 20160326 Auch künstliche Intelligenz kann rassistisch werden

In weniger als 24 Stunden twitterte der Bot: "Hitler was right I hate the jews" und er leugnete den Holocaust.
Mehr über die Psyche und die soziale Welt von Bots steht in dem Artikel Wolfgang Balzer bei Telepolis, sehr lesenswert.
https://www.heise.de/tp/features/Was-weiss-ein-Bot-4678332.html

Marlies, 10.03.2020 17:32


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/2Bv
Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Link with Tor: nnksciarbrfsg3ud.onion/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Tags: #Cyberwar #Hacking #Trojaner #Militaer #Bundeswehr #Aufruestung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #AI #Rassist
Created: 2016-03-26 09:13:37
Hits: 1348

Leave a Comment

If you like a crypted answer you may copy your
public key into this field. (Optional)
To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.
logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst We don't store user data World Beyond War Tor - The onion router HTTPS - use encrypted connections We don't use JavaScript For transparency in the civil society