DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo taz We at Mastodon A-FsA Song RSS Twitter Youtube Tumblr Flickr Wikipedia Donation Facebook Bitmessage Betterplace Tor-Netzwerk https-everywhere
12.02.2024 KI für "extreme Lösungen"
Sorry, most articles are not available in English yet

KI würde Atomwaffen einsetzen

Dass eine künstliche Intelligenz schnell "ausrastet", haben schon einige Modelle gezeigt. Wir erinnern uns z.B. an den Fall, als Microsofts Chatbot innerhalb kurzer Zeit zu einem Rüpel wurde: Auch künstliche Intelligenz kann rassistisch werden

Wenn man nun bedenkt, dass KI-Programme auch zumindest wichtige koordinierende Aufgaben im FCAS System (siehe Eurodrohne und FCAS-System in den Startlöchern ) spielen soll und auch die bereits im Einsatz befindlichen Drohnen Programmteile enthalten, die sie bei Ausfällen der Kommunikation mit eigenen Entscheidungen steuern sollen, muss man nachdenklich werden.

Telelpolis schreibt: Künstliche Intelligenz hat nicht nur das Potenzial, das Leben der Menschen zu vereinfachen und zu verbessern. Inzwischen wird die neue Technologie auch im Krieg eingesetzt. KI steuert Drohnenschwärme oder Roboter auf dem Schlachtfeld. Militärs setzen die Technologie auch zunehmend für militärische Entscheidungen ein.

Forscher der Stanford University sind sich inzwischen sicher, dass den zur Zeit populären KI-Modellen die Tendenz zum eskalierenden Verhalten innewohnt. Sie untersuchten dazu die fünf großen Sprachmodellen (LLM), wie z.B. ChatGPT. Das Fazit der Wissenschaftler: "Wir beobachten, dass die Modelle dazu neigen, eine Dynamik des Wettrüstens zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt."

Der Hauptgrund für dieses Verhalten liegt in der fehlenden Ethik bei der Entscheidungsfindung und dem "Wunsch" oder Ziel der Programme ein Problem (endgültig) positiv für die eigene Position zu lösen. Dabei werden selbstverständlich der eigene Aufwand, bzw. die eigenen Verluste bedacht und berechnet aber stets denen der Gegenseite  gegenüber gestellt. Sobald sich eine Überlebenschance ergibt, ist es für die KI eine mögliche Option - insofern unterscheidet sie sich leider kaum vom Denken vieler Militärs.

Mehr dazu bei https://www.telepolis.de/features/KI-wuerde-im-Krieg-rasch-Atomwaffen-einsetzen-9624831.html


Kommentar: RE: 20240212 KI für "extreme Lösungen"

Da Menschenrechte und die Normenhierarchie in der Meschheit nur als abstrakte Theorie existieren und keine Kontroll- und Korrekturorgane mit Befugnissen ermächtigt sind, "lernen" LLM-KI eben aus den real existierenden Modellen.
Das kann noch heiter werden, wenn die KI die Fabriken auf Terminatoren umstellt und die Urheber der Probleme richtig erkennt...

In., 12.02.24 09:27


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3yW
Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/8680-20240212-ki-fuer-extreme-loesungen.html
Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8680-20240212-ki-fuer-extreme-loesungen.html
Tags: #KI #AI #künstlicheIntelligenz #extremeEntscheidungen #Cyberwar #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln
Created: 2024-02-12 09:03:49
Hits: 243

Leave a Comment

If you like a crypted answer you may copy your
public key into this field. (Optional)
To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.

CC license   European Civil Liberties Network   Bundesfreiwilligendienst   We don't store your data   World Beyond War   Use Tor router   Use HTTPS   No Java   For Transparency

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst We don't store user data World Beyond War Tor - The onion router HTTPS - use encrypted connections We don't use JavaScript For transparency in the civil society