banner sicherheit https-everywhere Zugriff im Tor-Netzwerk Sitemap | Impressum DE | EN
web2.0 Diaspora RSS Vimeo A-FsA Song MeetUp Twitter Youtube Flickr Spenden über Betterplace Bitmessage Facebook
24.04.2017 Neuronale KI beurteilt Menschen

KI lernt, Kriminelle durch ihre Gesichter zu identifizieren

Ist das Rassismus pur?
Cesare Lombroso (1835–1909), italienischer Arzt, Professor der gerichtliche Medizin und Psychiatrie meinte, es gäbe besondere Gesichtsmerkmale, die es ihm erlaubte Gesetzesbrecher zu identifizieren. Die im Faschismus folgenden "rassehygienischen" Einteilungen von Menschen wegen ihres Aussehens sind uns alle bekannt.

Danach war man eigentlich in der Wissenschaft der Überzeugung, dass es statistisch bei körperlichen Anomalien zwischen Kriminellen und Nichtkriminellen keinen Unterschied gibt. Das stimmte bis 2011, als eine Gruppe von Psychologen von der Cornell University zeigte, dass Menschen eigentlich ganz gut waren, Kriminelle von Nichtkriminellen zu unterscheiden, nur indem sie Fotos von ihnen betrachteten.

Xiaolin Wu und Xi Zhang von der Shanghai Jiao Tong University in China haben nun Polizei-Fotos von 1856 Chinesen im Alter zwischen 18 und 55 ohne Gesichtsbehaarung genommen, von denen die Hälfte dieser Männer verurteilte Straftäter waren. Sie trainierten mit 90% der Fotos eine KI, ein neuronales Netz, welches dann die restlichen Fotos einordnen sollte. Die KI konnte 89,5% korrekt identifizieren. 

Wenn auch umstritten, ist dieses Ergebnis nicht ganz unerwartet. Wenn Menschen Kriminelle identifizieren können, indem sie ihre Gesichter betrachten, wie die Psychologen im Jahr 2011 gefunden haben, sollte es nicht überraschen, dass Maschinen es auch können. Wir können uns gut vorstellen, wie Polizeibehörden auf ein solches Programm scharf sind, um es auf Pass- oder Führerscheinfotos für ein ganzes Land anzuwenden. 

Und schon haben wir ein Minority Report Szenario, in dem Gesetzesbrecher identifiziert werden könnten, bevor sie ein Verbrechen begangen haben.

Kritisch ist ist an obiger Untersuchung in jedem Fall die geringe Menge von unter 2000 Probanden, die wenigen Kriterien, wie die Krümmung der Oberlippe, der Abstand zwischen zwei inneren Ecken der Augen und der Winkel zwischen zwei Linien, die von der Spitze der Nase zu den Mundwinkeln reichen. Darüber hinaus bleibt die Frage ob die Fotos vor oder nach einer Entlarvung/Verurteilung gemacht wurden. Die Lebensumstände zur Zeit der Aufnahme oder ihr derzeitiger gesellschaftlicher Status sollte auch Einfluss auf eine Bewertung haben.

Beängstigend ist in jedem Fall eine neue automatisierte Ära der Anthropometrie. Erst vor wenigen Monaten zeigten Forscher, wie sie eine KI Maschine trainiert hatten, um in der gleichen Weise wie Menschen zu urteilen, ob jemand vertrauenswürdig sei, nur indem diese einen Schnappschuss vom Gesicht untersuchte. Maschinen werden bald auch in der Lage sein, unsere Bewegungen zu studieren und wie wir interagieren ...

Mehr dazu bei https://www.technologyreview.com/s/602955/neural-network-learns-to-identify-criminals-by-their-faces/

Alle Artikel zu


Kommentar: RE: 20170424 Neuronale KI beurteilt Menschen

Ha - endlich eine Methode um Zuerlässigkeit von Politiker BlaBla zur Redezeit zu interpretieren, das ergibt ja die Chance ganz neuer Interview Formate

L., 24.04.2017 10:52


RE: 20170424 Neuronale KI beurteilt Menschen

gruselig

O., 24.04.2017 11:09


RE: 20170424 Neuronale KI beurteilt Menschen

Sehr!
Das ist das Schreckensszenario: Verhaftet und verurteilt, weil das Gesicht nicht passt...

St., 24.04.207 12:22


RE: 20170424 Neuronale KI beurteilt Menschen

Gruselig auf doppelte Weise. Erstens ist es gruselig, dass in der Zukunft eventuell Computer dazu beitragen werden, dass Menschen ungleich nach ihrem Aussehen behandelt werden. Zweitens ist es gruselig, dass die Computer eine 90%ige Trefferquote aufweisen können.
Und es stellen sich ganz viele Folgefragen:
* Wollen diese 90% der Verbrecher eventuell gar als Verbrecher erkannt werden?
* Welche 90% der Verbrecher kann der Computer erkennen? Nur die Drogendealer und Zuhälter, die vermutlich schon auf andere Weise vom Leben gezeichnet sind, oder sogar gut situierte Steuerhinterzieher wie Uli Hoeneß? Ist der Algorithmus also sogar gut darin, Unehrlichkeit von Menschen abzulesen?
* Falls sie tatsächlich gut funktioniert, ist es dann eher sinnvoll, diese Technologie als ethisch unvereinbar komplett zu verbieten, oder sollte sie doch auf gewisse Weise genutzt werden, um Verbrechen zu verhindern und die betreffenden Menschen zum Beispiel durch gezielte Förderprogramme in ein ehrliches Leben zu bringen?

Fu., 24.04.2017 12:34

 


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/2LM
Tags: Biometrie, Gesichtserkennung, Minority Report, KI, Grundrechte, Menschenrechte, Freizügigkeit, Unschuldsvermutung, Verhaltensänderung, Indect, Fingerabdruck, Elektronischer Personalausweis, Elektronischer Pass, Persönlichkeitsrecht, Privatsphäre,
Erstellt: 2017-04-24 08:27:43
Aufrufe: 152

Kommentar abgeben

Wer hat, der kann! Für eine verschlüsselte Rückantwort hier den eigenen Public Key reinkopieren.
(Natürlich optional)
Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots auszuschließen.
logos Mitglied bei European Civil Liberties Network Creative Commons Mitglied bei WorldBeyondWar Wir unterstützen den CCC Beim freiwilligen Engagement stets dabei Mitglied bei Schule ohne Militär Wir speichern nicht Wir verwenden kein JavaScript Mitglied bei Fundamental Right Platform Für Transparenz in der Zivilgesellschaft Nominiert für Deutschen Engagementpreis