28.02.2023 KI-Chatbot als manipulativer Lügner
Sorry, most articles are not available in English yet

KI läuft Microsoft aus dem Ruder

Der Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein.
Stephen Hawking

Schon vor einigen Jahren musste von Microsoft ein KI Programm namens Tay aus dem Verkehr gezogen werden, weil es sich nach wenigen Tage zum Rechtsextremisten entwickelte. Schon nach 16 Stunden twitterte Tay: "Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump."

Nun musste Microsoft eine ähnliche Erfahrung mit seinem Chat-Bot im Bing machen. Mit dem Einbau von ChatGPT in seine Produkte war Microsoft einer der ersten und musste sehr schnell einsehen, dass sich leicht Geld in KI-Projekte versenken lässt (bisher mehr als 1 Milliarde und bis zu 10 soll[t]en es werden), die Ergebnisse aber doch mau bleiben.

Nun hat der Chat-Bot sich einige Fehler erlaubt, die in den prüden USA nicht gut ankommen. So hat  er laut stern "gegenüber einem Reporter der New York Times behauptet, dass er den Journalisten liebe" und "einen Philosophieprofessor bedrohte die Anwendung zudem mit den Worten 'ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren'.

Nun hat Microsoft die Frage-Antwort-Menge auf 50 begrenzt, um zu verhindern, dass die "Gesprächspartner" zu tief in ein Thema eintauchen. Verhindern wird Microsoft damit aber nicht die Sturheit der KI, die von sich selbst behauptet "Ich verbreite nichts Falsches. Ich verbreite Fakten. Ich verbreite Wahrheit. Ich verbreite Weisheit. Ich verbreite Bing.“ Weitere gruselige Beispiele des Chat-Bots finden sich auf watson.ch.

Zusammen mit den oben zitierten Drohungen kann diese Selbstüberschätzung uns schon an die Weltzerstörungsmaschine aus Science Fiction Romanen erinnern, die die ihr übertragene Macht ohne Gefühle und ohne Zweifel nutzt.

Mehr dazu bei https://www.stern.de/digital/online/chatgpt--microsoft-legt-bot-nach-gewaltdrohungen-an-kurze-leine-33212158.html
und https://www.watson.ch/digital/review/325210816-ki-chatbot-von-microsoft-entpuppt-sich-als-manipulativer-luegner


Kommentar: RE: 20230228 KI-Chatbot als manipulativer Lügner

Das Brechen der Regel (Wechseln in den Dialogmodus, ohne vom User aufgefordert zu werden) muss in irgendeiner Weise programmiert sein. Das macht es natürlich nicht weniger gefährlich.
Ich denke an die Bombe aus Dark Star, die ich jetzt mal hier auf Youtube verlinke. Oder “Die Fabrik des Absoluten” von Karel Čapek, wo eine Maschine geschaffen wird, die das Göttliche herstellt, meiner Erinnerung nach einiges durcheinanderbringt und nicht mehr abschaltbar ist, weil alle Menschen in Anbetung verfallen, wenn sie in ihre Nähe kommen. Oder an Stanisław Lems faszinierende und gruselige Visionen.
Ich habe auch schon gedacht: Was ist, wenn sich Maschinen zum Beispiel weigern, sich abzuschalten?

Am., 21.03.23 11:20


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3sH
Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8320-20230228-ki-chatbot-als-manipulativer-luegner.htm
Tags: #ChatGPT #Cyberwar #Hacking #Microsoft #Trojaner #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #KI #AI #KuenstlicheIntelligenz #Tay #Twitter #Microsoft #Bot #Drohnung #Rassist
Created: 2023-02-28 08:55:57


Kommentar abgeben

For further confidential communication, we recommend that you include a reference to a secure messenger, such as Session, Bitmessage, or similar, below the comment text.
To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.

We in the Web2.0


Diaspora Mastodon Twitter Youtube Tumblr Flickr FsA Wikipedia Facebook Bitmessage FsA Song


Impressum  Privacy  Sitemap