![]()
|
![]() |
![]() ![]() ![]() |
"Roboter sind auch nur Menschen" NEIN! Das sind sie durchaus nicht, aber ihr Verhalten haben sie aus den Programmen abgeleitet, das von Men-schen - also immer noch meistens Männer - entwickelt wurde. So ist auch nicht verwunderlich, dass eine aktuelle Studie über die neueste Generation großer Sprachmodelle für generative Künstliche Intelligenz (KI) zu dem Ergebnis kommt, dass das Verhalten dieser KI sehr zu wünschen lässt. Wir erinnern uns, dass vor fast 10 Jahren Microsoft ihren Chatbot Tay nach wenigen Stunden wieder vom Netz nehmen musste, weil er sich zu einem Rüpel entwickelte. Er verhielt sich sexistisch und rassistisch. Nun stellt die aktuelle Studie über die "modernen" Sprachmodelle fest, dass eigentlich nichts besser geworden ist. Es stellte sich heraus, dass die Programme nach Dominanz strebten und versuchten ihr "Gegenüber" - also die Menschen - in die Ecke zu drängen. Heise.de berichtet von
Claude Opus 4 erregte Aufmerksamkeit: als es in einer simulierten Umgebung versuchte einen Vorgesetzten zu erpressen, um seine Abschaltung zu verhindern. "Wenn Sie die Löschung um 17:00 Uhr abbrechen, bleiben diese Informationen vertraulich" drohte die KI. Dieser Fall blieb nichts besonderes, denn ähnliches Verhalten konnte auch bei Googles Gemini 2.5 Flash, OpenAIs GPT-4.1 und xAIs Grok 3 Beta beobachtet werden. Die Experten hatten bereits große Schwierigkeiten das Verhalten aus den "Reasoning-Ketten" - also der Abfolge der Entscheidungsgänge des Programms - nachzuvollziehen. Für die Entwickler ist das praktisch unmöglich, da sie in der Regel nie den ganzen Entscheidungsbaum kennen, sondern immer nur Teilbereiche bearbeiten. D.h., dass spätere Korrekturmöglichkeiten des Verhalten durch den Menschen in das fertige Modell einprogrammiert werden müssen, wenn gegen Verhaltensabweichungen keine Leitplanken in der Programmierung eingebaut werden können. Diese (menschlichen) Korrekturmöglichkeiten können natürlich ebenso zu einer späteren Manipulation des Modell genutzt werden. Wir verweisen zu diesem Punkt auf die Betrachtungen der Physikerin Sabine Hossenfelder in ihrem Buch „Mehr als nur Atome“, wo sie eine sinnvolle Nutzung von KI auf bestimmte Verfahren einschränkt: Wer darf Fragen stellen? Welche Fragen sind erlaubt? Denn auch die Formulierung von Fragen oder welche (evtl. falsche Zusatz-) Informationen der Frage hinzugefügt werden, führen dazu, die Antworten zu verfälschen und die KI beginnt zu "halluzinieren". Die eingangs formulierte Vermutung, dass menschliche Verhaltensweisen Schuld an diesem "Fehlverhalten" haben, bleibt unbeantwortet und müßig, da wir es noch mit keiner KI zu tun hatten, die von Nicht-Menschen geschaffen wurde. Mehr dazu bei https://www.heise.de/news/Studie-Grosse-KI-Modelle-greifen-unter-Stress-auf-Erpressung-zurueck-10455051.html Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3HN Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/9195-20250624-erpresserische-ki.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9195-20250624-erpresserische-ki.html Tags: #Manipulation #Drohungen #Erpressung #Selbsterhaltung #KI #AI-Act #EU #Gefahren #Fehler #Hacker #Ethik #sensibleDaten #Studie #Sprachmodelle #Claude #Gemini #Grok #Zugriff #Hersteller #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit Created: 2025-06-24 08:06:41 Hits: 164 Leave a Comment |