|
Diskussion bei Alex TV
Teil 1: Was ist künstliche Intelligenz?
Inhalt
B: Seit einiger Zeit planen wir eine Sendereihe zum Thema Künstliche Intelligenz , KI, und haben dabei gesehen, dass dies viele Bereiche tangiert. Es ist bei weitem kein reines IT Thema, sondern betrifft bereits heute die Arbeitswelt, geht in die juristischen Bereiche des Copyright und der Haftung bei fehlerhafter Anwendung. Definition von IntelligenzR: Schauen wir doch mal, wie es zu diesem Begriff kam. Das Lexikon sagt: Künstliche Intelligenz soll ein Oberbegriff sein für Methoden, die auf die Automatisierung von Entscheidungsvorgängen abzielen, die normalerweise den Einsatz menschliche Intelligenz erfordern. Erfunden hat den Begriff 1955 ein gewisser John McCarthy. Zusammen mit drei Kollegen definierte er das Wort Artifical Intelligence, AI. Das Ziel der Forscher war es herauszufinden, wie sie Maschinen dazu bringen können Sprache zu benutzen, Begriffe zu bilden und Probleme zu lösen. Also Aufgaben zu lösen die bisher den Menschen vorbehalten waren. Dazu müssen wir uns natürlich anschauen wie Computer und ihre die Nutzung im Jahre 1955 aussahen. Die Bilder zeigen eine Datasaab-LA2-Itceum-D22 und eine IBM_704 aus dem Lawrence Livermore National Laboratory. Die Computer waren zu dieser Zeit Großrechner. Sie konnten Tabellen aufstellen und Tabellen auswerten und auch ganz primitiv Textverarbeitung ausführen. Möglich war also das Sortieren von zum Beispiel Namens- oder Rechnungslisten oder ein Wörterbuch zu erstellen.
B: Niemand würde auf den Gedanken kommen ein Tabellenverarbeitungsgerät oder eine Sortiermaschine als intelligent zu bezeichnen. Selbst wenn sie Sprache benutzen kann, wenn sie Begriffe bilden kann und Probleme lösen kann, mag dies vielleicht für einen Menschen aus dem Bereich der IT intelligent sein.
B: Wir müssen uns also die Frage stellen: ist die Suche in vorhandenem Wissen und die Fähigkeit dazu bereits Intelligenz?
Auf jeden Fall sind seine Beschreibungen und die von dem deutschen Psychologen Stemberg benutzten eher geeignet die menschliche Intelligenz zu beschreiben als die oben verwendete doch sehr einseitige Beschreibung aus dem Bereich der IT. Diese umfasst aus der Liste von Gardner gerade mal die logischen Schlussfolgerungen und die Raumorientierung.
Wenn wir die dann in der links abgebildeten Schaltung anordnen, habe wir einen Halbaddierer, mit dem wir die zwei Ziffern (0 und 1, mehr kennt der Computer nicht) addieren können. Bei der Addition von 1+1 erhalten wir dann eine 0 und eine 1 als Übertrag für die nächst höhere Stelle der Zahl. Mehr kann ein Computer eigentlich nicht. Das „mehr“ was wir heute sehen, ist der Tatsache geschuldet, dass inzwischen in einem Rechner viele Halbaddierer zusammen geschaltet und die Programme komplexer geworden sind. Es braucht dann also viele davon um große Zahlen zu addieren und inzwischen noch viele Milliarden mehr an Speicherplätzen, wo diese Zahlen abgelegt werden. Und ein Programm muss dem Computer sagen was zu tun ist. Es begann einmal mit Assembler, einer Maschinensprache, die wie hier in diesem kleinen Buch beschrieben aus 256 Befehlen bestand. Damit musste man sein Programm beschreiben, um zu einem Ergebnis zu kommen. (Bild05 Befehlssatz8080.jpg) 256 verschiedene Befehle hört sich viel an, es sind im wesentlichen jedoch nur Speicher-Verschiebebefehle, Addition und Subtraktion (Bild06 8080-Subtraktion.jpg) und die Möglichkeit im Programm je nach Stand der Berechnung an bestimmte Stellen im Programmcode zu springen. Solche Verzweigungen erlauben es dann Vorgänge in Schleifen zu wiederholen – etwas was ein Computer gut und schnell kann.
In den achtziger und neunziger Jahren wurden die Programmiersprachen der menschlichen Sprache ähnlicher. Dafür musste der Computer die Befehle vor der Ausführung erst aus den so genannten höheren Programmiersprachen wieder zurück in seinen Maschinen-Code übersetzen, um ihn auszuführen.
Wenn wir nun davon ausgehen, dass das Programm auf die Eingaben eines Mikrofons, also Sprache, oder sogar auf die Eingaben einer Kamera, also Bilder oder Videos reagieren kann, dann können wir uns fragen ... Noch ein wenig komplexer wird es beim Übersetzen in andere Sprachen, bei der Bilderkennung oder der Bildgenerierung. Die beiden letzten Begriffe haben leider auch ihre Verwendung bei der Zielerkennung oder Zielgenerierung, also im militärischen Bereich gefunden. Dazu muss das System zuerst mit vielen Daten auf seine Aufgabe trainiert werden. Es verfügt dann über ein Large Language Model (LLM) und kann damit arbeiten, versagt aber, wenn es zu Problemen außerhalb dieses Modells befragt wird.
Was kann also eine schwache KI? Diese schwache KI, die man auch als methodisch KI bezeichnet, besitzt keine Kreativität und keine expliziten Fähigkeiten selbstständig zu lernen. Ihre Lernfähigkeiten ist auf das Trainieren von Erkennungsmustern oder das Abgleichen und durchsuchen von großen Datenmenge reduziert. Man bezeichnet so etwas auch als Machine Learning. Dieser Begriff taucht auch in den Ehrungen der diesjährigen Nobelpreisträger in Physik und Chemie auf. Hopefield und Hinton erhalten den Nobelpreis in Physik für die Entwicklung künstlicher neuronaler Netze – dem menschlichen Gehirn nachempfunden - mit Milliarden von Knoten (Bild08 NeuronenRechnen.pdf). Das haben sie vor etwa 20 Jahren bereits begonnen.
Künstliche neuronale Netzwerke, KNN
Auch wenn man mit dem Begriff „schwach“ in Richtung „gering“ denken mag, so ist doch die Rechenleistung für diese Aufgaben enorm. Wir kommen später noch zu dem Energie- und Arbeits-Aufwand den man treiben muss, um solche Aufgaben gut zu lösen.
B: Was wäre eine? Was erwartet man von einer? Worauf arbeitet man hin? Eine starke KI muss nach den Anforderungen der Technischen Hochschule Würzburg-Schweinfurt die auf der links nebenstehenden Tabelle genannten folgenden Schritte beherrschen: (Bild09 StarkeKI-THWS.png Quelle Hochschule: Unterschiede starke und schwache KI) Da eine starke KI noch nicht existiert, können wir über die folgende Warnung noch (!) lächeln.
Warnung:
B:: Wie können wir erkennen, ob sich eine KI zu einer „starken“ entwickelt oder entwickelt hat? B: Inzwischen ist der Turing Test auch in der Kritik, weil es bei ihm in erster Linie darum geht, den davor sitzenden Menschen zu täuschen. Er zeigt eigentlich nur, bei welchem Verhalten (einer Maschine) sich Menschen dieses etwas als intelligent vorstellen.
R: Die Ergebnisse sind trotzdem interessant:
Bemerkenswert am Sieg von AlphaGo über Lee Sedol war nicht nur die Tatsache, dass die KI gewann. Sondern die Art und Weise, wie sie gewann. AlphaGo verwendete eine Strategie, die uns Menschen völlig fremd war. Kein Mensch wäre jemals auf die Idee gekommen, einen solchen Zug zu spielen, wie AlphaGo es tat. Alle Zuschauer dachten, dass dies ein schrecklicher Fehler der KI gewesen sei. Das Moorsche Gesetz (Bild11 Moores_Law_Transistor_Count_1970-2020WikipediaCC.png) sagt bei der Entwicklung der IT eine zweijährliche Verdopplung der Rechenleistung voraus. Allerdings kann das nicht unendlich so weitergehen. Inzwischen stößt man bei der Herstellung der immer kleineren Chips und damit dem Wachstum der Anzahl der Schaltkreise an physikalische Grenzen. 2016 verstieg man sich dieser Aussage: Man baut jetzt (der Wikipedia Artikel ist von 2016) Chips mit einem Leitungsabstand von 14 nm. Das sind dann 14*10⁻9m. Spätestens, wenn man in den Bereich von 2-3 nm kommen würde, werden diese Chips Rechenfehler erzeugen, weil in diesem Bereich bereits quantenphysikkalische Tunnelströme auftreten. Nun hat die chinesische Firma Xiaomi einen eigenen 3nm-Chip entwickelt, dessen Massenproduktion für 2025 geplant ist und wohl fehlerfrei rechnet. Trotzdem werden wir demnächst an diese physikalische Grenze stoßen. Spätestens dann muss man über andere Computer-Architekturen nachdenken, was uns sicher irgendwann zu einem Quantencomputer (Bild12 Quantencomputer2.jpg + Bild13 Quantencomputer2.jpg) führen würde, weil diese statt mit Strom (Elektronen) mit Licht (Photonen) arbeiten. Man kann bereits Modelle aus China kaufen, allerdings sind die dafür notwendigen Programmiersprachen noch in der Entwicklung. Und es gibt durchaus verschiedene Ideen, wie man auf die Möglichkeiten solcher Geräte zugreift. Mit masselosen Photonen lässt sich viel schneller arbeiten als den „großen“ Elektronen. Google behauptete kürzlich: sein Chip mit 53 supraleitenden Qbits sollte in 200 Sekunden eine Aufgabe gelöst haben, für die ein Supercomputer 10.000 Jahre gebraucht hätte. Wenige Tage später folgte die Ernüchterung: Der Konkurrent IBM zeigte, dass ein Supercomputer diese Aufgabe mit den richtigen Methoden in nur 2,5 Tagen lösen kann. Das wäre „nur noch 1080-mal schneller“, aber verglichen mit dem Moore’schen Gesetz wären das doch mehr als 20 Jahre „Fortschritt“ (1024=2^10). B: Damit wollen wir den Einstieg in das Thema KI für heute abschließen und versprechen, dass die weiteren Teile nicht so tief in die Computertechnik einsteigen werden. Wir haben gelernt, dass Computer außer addieren und Inhalte von Speicherplätzen verschieben nichts können – aber das dafür sehr schnell. Erst durch die Programme erlangen sie weitere Fähigkeiten.
Im nächsten Teil wollen wir darauf eingehen, wie groß die Gefahren, z.B. beim autonomen Fahren sein können, was die EU mit ihrem AI-Act/KI-Act erreichen will und was uns das bei Fragen der Haftung für fehlerhaftes Verhalten von KI gesteuerten Geräten bringt und was beim Copyright bei KI-generierten Texten und Bildern zu beachten ist.
Mehr dazu in allen unseren Artikeln zum Thema KI https://www.aktion-freiheitstattangst.org/cgi-bin/searchartl.pl?suche=künstliche&sel=meta Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3Dz Link zu dieser Seite: https://www.aktion-freiheitstattangst.org/de/articles/8950-20241031-thema-kuenstliche-intelligenz.html Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/8950-20241031-thema-kuenstliche-intelligenz.html Tags: #KI #AI-Act #EU #Intelligenzbegriff #Computerhistorie #Algorithmen #LargeLanguageModel #LLM #NeuronaleNetze #KNN #Turingtest #MooresGesetz #Verbraucherdatenschutz #Datenschutz #Datensicherheit #Datenpannen #Datenskandale #Transparenz #Informationsfreiheit Erstellt: 2024-10-31 08:22:14 Aufrufe: 307 Kommentar abgeben |
CC Lizenz Mitglied im European Civil Liberties Network Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor nutzen HTTPS nutzen Kein Java Transparenz in der Zivilgesellschaft |