12.02.2024 KI für "extreme Lösungen"

KI würde Atomwaffen einsetzen

Dass eine künstliche Intelligenz schnell "ausrastet", haben schon einige Modelle gezeigt. Wir erinnern uns z.B. an den Fall, als Microsofts Chatbot innerhalb kurzer Zeit zu einem Rüpel wurde: Auch künstliche Intelligenz kann rassistisch werden

Wenn man nun bedenkt, dass KI-Programme auch zumindest wichtige koordinierende Aufgaben im FCAS System (siehe Eurodrohne und FCAS-System in den Startlöchern ) spielen soll und auch die bereits im Einsatz befindlichen Drohnen Programmteile enthalten, die sie bei Ausfällen der Kommunikation mit eigenen Entscheidungen steuern sollen, muss man nachdenklich werden.

Telelpolis schreibt: Künstliche Intelligenz hat nicht nur das Potenzial, das Leben der Menschen zu vereinfachen und zu verbessern. Inzwischen wird die neue Technologie auch im Krieg eingesetzt. KI steuert Drohnenschwärme oder Roboter auf dem Schlachtfeld. Militärs setzen die Technologie auch zunehmend für militärische Entscheidungen ein.

Forscher der Stanford University sind sich inzwischen sicher, dass den zur Zeit populären KI-Modellen die Tendenz zum eskalierenden Verhalten innewohnt. Sie untersuchten dazu die fünf großen Sprachmodellen (LLM), wie z.B. ChatGPT. Das Fazit der Wissenschaftler: "Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt."

Der Hauptgrund für dieses Verhalten liegt in der fehlenden Ethik bei der Entscheidungsfindung und dem "Wunsch" oder Ziel der Programme ein Problem (endgültig) positiv für die eigene Position zu lösen. Dabei werden selbstverständlich der eigene Aufwand, bzw. die eigenen Verluste bedacht und berechnet aber stets denen der Gegenseite  gegenüber gestellt. Sobald sich eine Überlebenschance ergibt, ist es für die KI eine mögliche Option - insofern unterscheidet sie sich leider kaum vom Denken vieler Militärs.

Mehr dazu bei https://www.telepolis.de/features/KI-wuerde-im-Krieg-rasch-Atomwaffen-einsetzen-9624831.html


Kommentar: RE: 20240212 KI für "extreme Lösungen"

Da Menschenrechte und die Normenhierarchie in der Meschheit nur als abstrakte Theorie existieren und keine Kontroll- und Korrekturorgane mit Befugnissen ermächtigt sind, "lernen" LLM-KI eben aus den real existierenden Modellen.
Das kann noch heiter werden, wenn die KI die Fabriken auf Terminatoren umstellt und die Urheber der Probleme richtig erkennt...

In., 12.02.24 09:27


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3yW
Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8680-20240212-ki-fuer-extreme-loesungen.htm
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8680-20240212-ki-fuer-extreme-loesungen.htm
Tags: #KI #AI #künstlicheIntelligenz #extremeEntscheidungen #Cyberwar #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln
Erstellt: 2024-02-12 09:03:49
Aufrufe: 253

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.
Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

Wir im Web2.0


Diaspora Mastodon Twitter Youtube Tumblr Flickr FsA Wikipedia Facebook Bitmessage FsA Song


Impressum  Datenschutz  Sitemap