26.03.2016 Auch künstliche Intelligenz kann rassistisch werden
Sorry, most articles are not available in English yet

Twitter-User machten Microsofts Chatbot zu einem Rüpel

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein. Stephen Hawking

... nein, nicht "zu einem Rüpel" sondern zu einem Rassisten.

Microsoft wollte eine KI erschaffen, welche sich wie ein Teenager verhält, um natürlichere Kommunikation mit einer KI zu testen. Dazu stellte das Unternehmen den Chatbot Tay auf Twitter.

Sobald Tay online war, bombardierten ihn Twitter-Nutzer mit rassistischen Kommentaren, Beleidigungen und frauenfeindliche Beschimpfungen. Tay lernte und das führte dazu, dass er dieses Verhalten annahm und in demselben "Tonfall" seine Äußerungen tätigte.

Tay sollte eine lernende Maschine sein, um mit Menschen zu kommunizieren. Was wir aus dem Experiment lernen können ist, dass KI ohne Moral tatsächlich eine Gefahr werden kann.

Sagen wir dies laut und deutlich allen Konstrukteuren von Drohnen, den bereits fliegenden automatischen Tötungsmaschinen. Auch diese bekommen immer mehr "KI" programmiert, damit sie in "Notfällen" (Abriss der Funkverbindung oder Zerstörung der Leitstelle) ohne menschliche Unterstützung weiter handeln, also töten können.

Mehr dazu bei http://www.gulli.com/news/27273-twitter-user-machten-microsofts-chatbot-zu-einem-ruepel-2016-03-25


Kommentar: RE: 20160326 Auch künstliche Intelligenz kann rassistisch werden

In weniger als 24 Stunden twitterte der Bot: "Hitler was right I hate the jews" und er leugnete den Holocaust.
Mehr über die Psyche und die soziale Welt von Bots steht in dem Artikel Wolfgang Balzer bei Telepolis, sehr lesenswert.
https://www.heise.de/tp/features/Was-weiss-ein-Bot-4678332.html

Marlies, 10.03.2020 17:32


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/2Bv
Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/5467-20160326-auch-kuenstliche-intelligenz-kann-rassistisch-werden.htm
Tags: #Cyberwar #Hacking #Trojaner #Militaer #Bundeswehr #Aufruestung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #AI #Rassist
Created: 2016-03-26 09:13:37


Kommentar abgeben

For further confidential communication, we recommend that you include a reference to a secure messenger, such as Session, Bitmessage, or similar, below the comment text.
To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.

We in the Web2.0


Diaspora Mastodon Twitter Youtube Tumblr Flickr FsA Wikipedia Facebook Bitmessage FsA Song


Impressum  Privacy  Sitemap