DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo taz We at Mastodon A-FsA Song RSS Twitter Youtube Tumblr Flickr Wikipedia Donation Facebook Bitmessage Betterplace Tor-Netzwerk https-everywhere
16.02.2020 KI wird zu oft überschätzt
Sorry, most articles are not available in English yet

Lineale als Indiz für Hautkrebs

Mmh, das hört sich verdammt nach Übersinnlichem an - ist aber nur das Ergebnis künstlicher Intelligenz (KI).

Mit Kollegen an der US-amerikanischen Uni Stanford hatte der Hautarzt Roberto Novoa einen Algorithmus entwicklet, der aus Bildern von Hautveränderungen entscheiden sollte, welche davon gutartig und welche gefährliche Tumore sind. Das System hatte eine Datenbank von 129.000 Bildern von Hautveränderungen zur Auswahl.

Allerdings legen Dermatologen bei besorgniserregenden Hautveränderungen oft ein Lineal mit ins Foto, um die Größe der problematischen Bereiche zu dokumentieren. Das lernte das System schnell, so dass der Algorithmus auf Bildern immer dann Tumore erkannte, wenn im Bild ein Lineal zu sehen war, denn dessen Vorhandensein ging mit einer größeren Wahrscheinlichkeit für einen problematischen Befund einher.

So hatte der Arzt ein Erkennungswerkzeug für Lineale erfunden ...


Ähnlich erging es einer Firma, die einen "smarten" Seifenspender auf den Markt bringen wollte. Dieser verhielt sich jedoch sehr rassistisch und verweigerte die Seifenlauge, wenn der Interessent eine braune oder schwarze Hautfarbe besaß.

Über Probleme von KI bei der Gesichtserkennung hatten wir in einem anderen Fall bereits berichtet (Gesichtserkennung nur bei weißen Männern zuverlässig ). Und wir erinnern uns, wie der von Microsoft entwicklete "smarte" Chatbot innerhalb weniger Tage zu einem rassistischen Rüpel wurde (Auch künstliche Intelligenz kann rassistisch werden ).

Das Fazit muss also sein: Algorithmen können hilfreich sein, um uns stupide Arbeit abzunehmen, doch sollte man sehr vorsichtig sein ihnen komplexe Probleme zu überlassen.
Nachtrag von Aktiven unserer Arbeitsgruppe "Schule ohne Militär": Dieses Fazit trifft ganz besonders auf den Einsatz von KI bei Drohnen und anderen (teil-)autonomen Waffen zu. Selbst Soldaten machen in kriegerischen Auseinandersetzungen ständig Fehler (Abschuss con Zivilflugzeugen, Bombardierung von Krankenhäusern oder Schulen wie in Kunduz). Wie sollten das beschränkte Roboter bewältigen?

Mehr dazu bei https://www.fluter.de/wie-dumm-ist-das-denn
und https://www.credoweb.at/publication/104194/hautkrebs-diagnostik-automatische-diagnose-von-melanomen
und https://www.nature.com/articles/nature21056


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/37W
Link to this page: https://www.aktion-freiheitstattangst.org/de/articles/7173-20200216-ki-wird-zu-oft-ueberschaetzt-.htm
Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/7173-20200216-ki-wird-zu-oft-ueberschaetzt-.htm
Tags: #AI #KI #künstlicheIntelligenz #Hautkrebs #Melanom #Gesichtserkennung #autonom # #SchuleohneMilitär #Atomwaffen #Militär #Bundeswehr #Aufrüstung #Waffenexporte #Drohnen #Frieden #Krieg #Friedenserziehung #Menschenrechte #Zivilklauseln #Kollateralschaden #Slaughterbot #FalsePositives
Created: 2020-02-16 09:44:36
Hits: 654

Leave a Comment

If you like a crypted answer you may copy your
public key into this field. (Optional)
To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.

CC license   European Civil Liberties Network   Bundesfreiwilligendienst   We don't store your data   World Beyond War   Use Tor router   Use HTTPS   No Java   For Transparency

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst We don't store user data World Beyond War Tor - The onion router HTTPS - use encrypted connections We don't use JavaScript For transparency in the civil society