top of page
Historischer Hintergrund zu KI

Es existiert keine allgemein akzeptierte Definition des Begriffs „Intelligenz“, es gibt allenfalls Negativabgrenzungen, also Aussagen darüber, was nicht als intelligent angesehen werden kann. Die Bezeichnung „Künstliche Intelligenz“ wurde von McCarthy, einem der Teilnehmer der legendären Konferenz zu KI am Dartmouth College (New Hampshire, USA, 1956) geprägt, die heute als der Beginn des KI-Zeitalters gilt. Damals wurde unter KI vor allem eine maschinelle Argumentationsfähigkeit verstanden. Im Zuge der beginnenden Hochphase der Forschungsaktivität entstanden die Sprachen LISP und PROLOG und das Konzept des Perceptrons, das als Kern der Nachbildung biologischer Gehirne gesehen wurde. Als Anfang der 70er Jahre klar wurde, dass die Erwartungen an die kurzfristig erreichbare Leistung von KI weit überschätzt worden waren, brach die Begeisterung über das Thema und mit ihr der Großteil der nationalen Forschungsfinanzierungen abrupt ab. McCarthy schrieb, dass es nicht 10 Jahre dauern würde, bis Maschinen einfache menschliche Fähigkeiten erwerben würden, sondern bis zu 500 Jahre, weil ein technischer Durchbruch im Hinblick auf die maschinelle Verarbeitungsleistung nötig sei. Der erste „KI-Winter“ begann: Geldquellen versiegten und wissenschaftliche Zeitschriften wiesen Publikationen zum Thema KI kategorisch ab.


1980 begann ein neuer KI-Frühling unter einer neuen Positionsbestimmung. Die Hoffnung war, dass es attraktiv werden würde, eine Grundform von Argumentationsfähigkeit mit einem Fundus an themenspezifischem Expertenwissen zu verbinden: „Expertensysteme“, die mehr Wissen akkumulieren können sollten als jede Gruppe einzelner Menschen, wurden der zentrale Gegenstand der KI. Auch diese Blütephase endete in Enttäuschung, einem zweiten KI-Winter, der vom Ende der 80er Jahre bis in den Beginn der 90er währte. Der neue Markt der Expertensysteme konnte die an ihn gestellten Geschäftserwartungen nicht erfüllen, neue Firmen brachen zusammen. Aber dennoch hatten sich in dieser Phase diverse Konzepte außerhalb des aktuellen Fokus substantiell weiterentwickelt. Insbesondere war ein Konzept zu mehrschichtigen Netzen aus Perceptrons entstanden. Rumelhart, Hinton und Williams hatten 1986 das aus den 60er Jahren bekannte Verfahren der „Backpropagation“ von Schätzfehlern zur Parameteroptimierung auf mehrschichtige neuronale Netze nach etablierten Methoden der numerischen Mathematik übertragen und so das Konzept des „Deep Learning“ fundiert [1]. LeCun hatte 1989 mit dem weitgehend von ihm entwickelten neuen Typ neuronaler Netze „Convolutional Neural Networks“ (CNN) für flächenorientierte (Bild-)Daten die Erkennung handgeschriebener Postleitzahlen ermöglicht und damit die Postsortierung der USA automatisiert [2]: Eine Sensation. Die Basis für einen nächsten Frühling der KI war bereitet.


Mitte der 90er Jahre begann die bis heute andauernde und wahrscheinlich auf weite Sicht fortbestehende dritte Phase der KI, die sich auf Basis gereifter Erkenntnisse über realistische Nutzenerwartungen auf ein dominierendes Thema richtet: „Machine Learning (ML)“. Dabei geht es um die Lösung eines breiten Spektrums realer, wirtschaftlich relevanter Probleme durch Konstruktion von Approximationsfunktionen mit nahezu beliebig komplexen Parameterkonstellationen, deren Werte aus hinreichend großen Mengen an Beispieldaten abgeleitet werden. In krassem Gegensatz zu den Orientierungen der KI in den ersten zwei Epochen liefert ML bereits heute in speziellen Bereichen eine durch vielfältige objektive Vergleiche nachgewiesene Überlegenheit maschineller kognitiver Fähigkeiten gegenüber menschlicher Leistung.


Applikationen, die mit KI-basierten Algorithmen Muster in Daten erkennen, gehören heute, im Zeitalter des mobilen Internet, zum Alltag für Milliarden von Menschen und stellen einen der größten Faktoren des Geschäftserfolgs für viele Firmen dar. Die Fundamente heutiger KI stammen teilweise aus den erfolglosen Anstrengungen früherer Epochen, besonders aber aus der explosionsartigen Steigerung der Rechenleistung in IT-Systemen aller Kategorien – vom Smartphone bis zum Internet-Mega-Datacenter – einhergehend mit der Verfügbarkeit zu extrem gesunkenen Preisen. Der technologische Durchbruch, von dem McCarthy träumte, als Hoffnung für die nächsten 500 Jahre, ist viel eher als erwartet Realität geworden. Die Rechengeschwindigkeit hat sich millionenfach erhöht, und in der IT-Industrie herrscht nun weiterhin Wettbewerb um die rasanteste Steigerung dieser maschinellen Leistungsfähigkeit. Applikationsspezifische Prozessortechnologie wird die Leistung der Systemtechnik für KI in den nächsten fünf Jahren zu heutigen Preisen nochmals um einen dreistelligen Faktor erhöhen. Der zentrale Gegenstand der KI ist heute und in der absehbaren Zukunft die Bestimmung der Parameter komplexer Approximationen mit wahrscheinlichkeitstheoretisch fundierter Basis. Damit wird die Abschätzung der Zugehörigkeit neuer Beobachtungen zu definierten Klassen oder Wertebereichen immer genauer, zuverlässiger, schneller und billiger.

Ab 2013 entwickelten sich jedoch auch  erste kritische Aspekte und Argumente gegenüber den technischen Errungenschaften, die Machine Learning hervorgebracht hatte. Es wurde deutlich, dass abhängig von der Auswahl der Trainingsdaten Neuronale Netze moralisch bedenkliche Haltungen einer Gesellschaft aufnehmen können. Das gilt besonders für sprachverarbeitende Systeme, die beispielsweise durch Training mit religiösen Texten Gender- und Rassendiskriminierung lernen können. Es entwickelten sich Forderungen nach einer Ethikdiskussion und Kritik an der mangelnden Erklärbarkeit der Ergebnisse des Machine Learning. Ausserdem wurde zunehmend deutlich, dass KI auch als universelle Waffentechnologie einsetzbar ist. In einer wachsenden Zahl von Publikationen wurden beispielsweise neue IT-Sicherheitsrisiken beschrieben, die durch die Fähigkeit von ML-Technik zur gezielten Täuschung von Menschen und Schutzsystemen Schaden anrichten können. Herkömmliche Abwehrtechniken sind gegen solche Angriffe oft wirkungslos und menschliche Eingriffe scheitern schon daran, dass die Präzision heutiger ML-Technik ein übermenschliches Leistungsniveau erreicht hat. Auch in diesem speziellen Bereich der IT-Sicherheit gilt also die Aussage, dass Sicherheit nie statisch sein kann, sondern immer wieder auf neu erkannte Bedrohungen gezielte Abwehrmaßnahmen einsetzen muss. Industrie-KI kann diese Aufgabe übernehmen. 

 

 

 

  

bottom of page