Keine Angst vor KI

kate_crawford.jpg

Kate Crawford on singularity

Künstliche Intelligenz ist wesentlicher Bestandteil unseres Lebens geworden. Videoüberwachung, tragbare Technologie und lernende Maschinen erkennen unsere Gesichter und unsere Stimmen, folgen unseren Bewegungen und sagen unsere Handlungen voraus. In ihrem Vortrag "Know your terrorist credit score!" auf der Hauptbühne will uns Kate Crawford mit ihrer Präsentation eines rechtlichen Rahmens die Angst nehmen.

Was für viele Menschen ein großer Alptraum wäre, ist Kate Crawfords Leidenschaft. Sie ist Hauptforscherin bei Microsoft Research in New York City, Gastprofessorin an der MIT. Auf der re:publica TEN wirbt sie für einen besseren rechtlichen Rahmen, anstelle von Schreckensvisionen tyrannischer Roboter.

"Es gibt Befürchtungen, dass künstliche Intelligent so schlau werden wird, dass es die menschliche Rasse zu Fall bringt", so Crawford. "Aber in vielerlei Hinsicht sind die Bedenken nichts neues. Die gibt es bereits seit 1950. Heute prägt sie Nick Bostons Buch 'Super Intelligence'." Aber sie glaubt auch, dass die Daten und die Technik bereits vorhanden sind, während der Diskurs in einer Alles-oder-nichts-Haltung stecken geblieben ist. Dies könnte Teil des Problems sein. "Einseitigkeit verdeckt das Problem. Betrachtet man künstliche Intelligenz nur aus einem Blickwinkel, sehen wir die Technologie nicht, derer wir uns bereits heute tagtäglich bedienen."

Crawford schlägt stattdessen folgendes vor: Einen rechtliche Rahmen, der künstliche Intelligenz mehr transparent, demokratisch und fair macht, sowie Verfahren, die den Menschen dabei helfen, weniger wertend vorzugehen, als sie es heute tun.

Die Strategie von Crawford ist es, mit Big Data an vorherrschenden Formen der Ungleichheit zu arbeiten. "Fürs Erste wird diese Technologie an den Benachteiligsten angwendet“, sagt sie und verweist auf ein jüngstes IBM Experiment. Die Firma hatte Datensätze ausgewertet, um zwischen Flüchtlingen und Dschihadisten zu unterscheiden. Diese Daten wurden für eine Kreuzkorrelation mit Neuankömmlingen verwendet. "Aber wie wissen sie, dass jemand diese Daten generiert hat", fragt Crawford. "Wenn wir wissen, wo Maschinen jetzt diskriminierend vorgehen, befinden wir uns in einer besseren Position, um faire künstliche Intelligenz zu entwerfen. Systeme können manipuliert und soziale und ethische Fragen angegangen werden."

Ist es an der Zeit, dies zu tun? "Wir befinden uns jetzt bereits an einem kritischen Punkt", so Kate Crawford.

Bildnachweis: re:publica/Gregor Fischer (CC BY 2.0)

Speaker: 

Tags: