Künstliche Intelligenz: Die Gesellschaft muss sich entscheiden. „Zentrum für Künstliche Intelligenz in MV“ an der Universität Rostock forscht im internationalen Verbund (22.04.2024)

Die Informatikerin Professor Alke Martens beschäftigt sich an der Universität Rostock mit ethischen Fragen bei der KI-Anwendung im Alltag. © Foto: Joachim Mangler

Zunächst sei es wichtig, zwischen der sogenannten schwachen und starken KI zu unterscheiden. „Bei der schwachen KI geht es um Anwendungen, die beispielsweise in die Industrie transferiert werden können“, sagt Martens. Dort arbeiten Computer mit großen Datenmengen und erledigen Dinge, zu denen Menschen zwar befähigt sind, für die Erledigung aber im Gegensatz zu den Maschinen riesige Zeiträume benötigten. Diese Methoden seien heute schon vielfach etabliert, wenn es beispielsweise um die Beurteilung von Herzfunktionen oder die Entdeckung eines Tumors geht. „Der Vorteil ist, dass die KI auch so kleine Abweichungen von der Norm erkennen kann, die einem Menschen möglicherweise verborgen bleiben“, sagt Martens. Die Anwendungen solcher Methoden seien künftig auch für kleinere Unternehmen essentiell, wenn sie im Wettbewerb mit den so genannten Big Playern mithalten wollen. „Hier kann das Zentrum für Künstliche Intelligenz der Universität Rostock beratend zur Seite stehen.“

Im Umgang mit der starken KI haben sich Forscher dagegen die Aufgabe gestellt, menschenähnliches Verhalten nachzuvollziehen. Das sei im Moment in seiner ganzen Dimension noch nicht fassbar, erklärt Martens. „Denn die reale Welt lässt sich nicht in Strukturen fassen, die von einer KI verarbeitet werden können. Sie besteht aus Ungenauigkeiten oder Abschätzungen, aus persönlichen Erfahrungen und Wahrnehmungsabschweifungen. Das alles kann eine KI nicht – noch nicht “. 

Die Komplexität lasse sich gut am Beispiel der Pflege von dementen Menschen darstellen, angesichts des ungeheuren Personalaufwands ein weltweit großes Forschungsgebiet. Gibt es Möglichkeiten, pflegerische Handlungen von einer Maschine erledigen zu lassen? So könne ein Roboter problemlos zu einer bestimmten Uhrzeit Tabletten anbieten, das sei ein einfacher Erinnerungsvorgang. „Aber überprüfen, ob die Tablette tatsächlich eingenommen oder die Toilette hinuntergespült wurde, liegt außerhalb der KI-Kompetenz“, sagt Martens. Genauso könne ein Roboter gut aufzeichnen, ob sich ein Patient die Zähne geputzt hat. Aber kontrollieren, ob die Qualität des Putzens ausreichend war, kann er nicht. Gerade in der Pflege gebe es unendlich viele nicht standardisierbare Fälle, die die KI nicht auflösen kann.
   

Ein anderes Beispiel für eine nur scheinbar einfache Anwendung von KI sei die gesprochene Sprache. „Das machen schon die Unterschiede zwischen Hoch- und Süddeutsch deutlich“, sagt die Informatikerin. So lasse die kurze Antwort „gut“ eines eher wortkargen, weniger emotionalen Norddeutschen völlig andere Schlüsse zu als die gleiche Replik des Süddeutschen. Das einfache Sprachbeispiel zeige die Komplexität. Bei allen Tätigkeiten des Alltags, bei denen es um Intuition oder Kreativität geht, sei die Informatik noch sehr am Anfang.
   

Die Lösung sei, Computer mit Hilfe von neuronalen Netzen und einer Vielzahl von Algorithmen immer weiter zu trainieren. „Wie das Ergebnis entstanden ist, kann ein Mensch nicht mehr nachvollziehen, da hat sich der Computer selbst feinjustiert.“ Je mehr der Mensch auch kleinste Dinge beim Programmieren der Trainingsdaten übersieht, umso schlechter sei am Ende die KI. „Hier greift die Ethik: Denn am Ende muss immer der Mensch beurteilen, ob die Ergebnisse der KI korrekt sind.“

An diesem Punkt würden die Gefahren deutlich. Vielen Menschen fehle die ausreichende Distanz zum Computer, wie der Umgang mit den Smartphones oft beweise. Es sei unglaublich schwierig zu beurteilen, wie sicher die Daten sind, die eine Software liefert. „Uns fehlt oft die nötige intellektuelle Distanz.“ Ein Problem sei, dass die KI immer sage, dass ihre Antwort perfekt sei. „Zweifel gibt es nicht.“ Dabei gebe es genügend Fragestellungen, die die KI nicht beantworten kann. Gerade in der Politik werde es heikel, wenn bei den Inhalten nicht mehr zwischen Realität und KI unterschieden werden kann.
   

Es müsse also genau darauf geschaut werden, wer die KI trainiert und mit welchen Inhalten, fordert Martens. „Wem möchten wir die Macht geben?“ Die Gesellschaften müssten sich entscheiden. Das Zentrum für künstliche Intelligenz in MV sei breit genug aufgestellt, um sich an den internationalen Forschungen zu beteiligen.

Quelle und weitere Informationen:


Back