Um ein System der künstlichen Intelligenz zu schaffen, dem Menschen die Verantwortung für Leben und Tod anvertrauen können, müssen Maschinen eine sehr menschliche Eigenschaft entwickeln: Sie müssen ihre Fehler zugeben.
KI-Systeme können sich irren und es nicht zugeben
Von Tara Haelle
April 5, 2022 C Systeme der künstlichen Intelligenz werden entwickelt, um bei der Diagnose von Krankheiten zu helfen, aber bevor wir ihnen lebenswichtige Aufgaben anvertrauen können, muss die KI eine sehr menschliche Eigenschaft entwickeln: Das Eingestehen von Fehlern.
Und die Wahrheit ist: Das können sie noch nicht.
Laut Forschern der University of Cambridge und der University of Oslo kann die KI heute häufiger die richtige Antwort auf ein Problem geben, als dass sie einen Fehler eingestehen kann.
Dieser grundlegende Fehler, so berichten sie, hat seine Ursache in einem mathematischen Problem.
Einige mathematische Aussagen können nicht als wahr oder falsch bewiesen werden. Zum Beispiel kann dieselbe Mathematik, die die meisten von uns in der Schule gelernt haben, um Antworten auf einfache und knifflige Fragen zu finden, nicht verwendet werden, um zu beweisen, dass wir sie konsequent anwenden.
Vielleicht haben wir die richtige Antwort gegeben, vielleicht auch nicht, aber wir mussten unsere Arbeit überprüfen. Das ist etwas, was Computeralgorithmen meist immer noch nicht tun können.
Es handelt sich um ein mathematisches Paradoxon, das erstmals von den Mathematikern Alan Turing und Kurt G?del zu Beginn des 20. Jahrhunderts festgestellt wurde, dass einige mathematische Probleme nicht bewiesen werden können.
Der Mathematiker Stephen Smale zählte diesen grundlegenden Fehler der KI zu den 18 ungelösten mathematischen Problemen der Welt.
Aufbauend auf dem mathematischen Paradoxon schlugen Forscher unter der Leitung von Dr. Matthew Colbrook vom Fachbereich Angewandte Mathematik und Theoretische Physik der Universität Cambridge einen neuen Weg vor, die Problembereiche der KI zu kategorisieren.
In den Proceedings of the National Academy of Sciences zeigen die Forscher auf, in welchen Situationen neuronale KI-Netze C, die dem menschlichen Gehirn nachempfunden sind, tatsächlich trainiert werden können, um zuverlässigere Ergebnisse zu erzielen.
Dies ist eine wichtige Vorarbeit, um intelligentere und sicherere KI-Systeme zu entwickeln.