Künstliche Intelligenz, Quantencomputing und Neurotechnologien könnten die Art und Weise, wie wir lernen, radikal verändern – und damit die Spezies Mensch in eine neue Dimension katapultieren. Wir haben mit Erwin Bratengeyer von der Donau-Uni Krems über dieses Thema gesprochen.

bokeh photo of red light
Foto: Guillaume Bourdages, Unsplash

Dr. Bratengeyer, der Begriff künstliche Intelligenz wird aktuell für alle möglichen Technologien verwendet, die irgendwie „smart“ erscheinen. Was meint der Begriff wirklich?

Das ist gar nicht leicht zu sagen, weil ja auch die Frage „Was ist Intelligenz?“ nicht einfach zu beantworten ist. Wir haben zwar alle ein ungefähres Verständnis davon, assoziieren damit vor allem den IQ, aber reicht das aus? Und wenn wir das Wort „künstlich“ dazu nehmen, wird nicht viel klarer, was gemeint ist. Erschwerend hinzu kommt, dass die Bandbreite der künstlichen Intelligenz groß ist. Wir unterscheiden zwischen schwacher und starker oder allgemeiner künstlicher Intelligenz. Auf dem einen Ende der Skala stehen Siri & Co, auf dem anderen stehen Avatare, wie wir sie aus Science-Fiction-Filmen kennen.

Welche Eigenschaften verbinden Sie mit künstlicher Intelligenz?

Aussagekräftiger als Expertendefinitionen sind manchmal die Assoziationen von Laien. Aus einer Befragung von 1.000 erwachsenen Deutschen ging hervor, dass sie mit dem Begriff künstliche Intelligenz vor allem logisches Denken, Sprachverständnis, die Fähigkeit, zu lernen und Probleme zu lösen, sowie insgesamt menschenähnliches Verhalten verstehen (Was Verbraucher wirklich über KI denken: eine globale Studie, Pegasystems, 2017). Die Teilnehmer wurden auch nach ihren Befürchtungen bezogen auf künstliche Intelligenz gefragt – und sie nannten die Angst, dass diese Arbeitsplätze übernehmen, Menschen überwachen und beherrschen könnten. Das assoziieren wir also heute im Allgemeinen mit künstlicher Intelligenz.


Sind die Befürchtungen berechtigt?

Diese Frage beschäftigt Denker aller Domänen und die Wissenschaftler selbst sind sich uneins. Der kürzlich verstorbene Säulenheilige der Theoretischen Physik, Stephen Hawking, sagte sinngemäß, „Wenn wir mit der Entwicklung der künstlichen Intelligenz so weitermachen wie bisher, bedeutet dies das Ende der Menschheit“. Damit steht er nicht alleine. Es gibt anerkannte Philosophen, die in die gleiche Kerbe schlagen, aber auch Unternehmer, wie zum Beispiel Tesla-Chef Elon Musk.

Die Angst liegt darin begründet, dass wir nicht abschätzen können, was mit uns Menschen in der unterlegenen Position passiert. Wenn nun Systeme über den Käfig hinaus agieren können – und diese Entwicklung tritt schrittweise ein –, dann ist nicht klar, was daraus wird.

Andere sagen, „Ja das wird so sein, aber das ist gut so“. Denn wir als Menschheit waren ja bei der Lösung unserer globalen und individuellen Probleme nicht so erfolgreich. Also ist es dann ja nur begrüßenswert, wenn uns jemand oder etwas zur Seite steht. Unter denen, die dieser Entwicklung etwas Positives abgewinnen können, ist die schillernde Figur der Autor, Erfinder und Futurist Ray Kurzweil, der heute Forschungsdirektor bei Google ist. Schon seit den 1980er-Jahren macht er Prognosen, was wir mit künstlicher Intelligenz alles erreichen könnten – und er hat häufig Recht behalten. Kurzweil spricht von der „technologischen Singularität“. Das meint, dass sich ein Kurvenverlauf ins Unendliche entwickelt – in eine Größenordnung, von der wir nicht wissen, was sie bedeutet. Einige haben davor Angst, für andere ist es das Heilsversprechen.

Wo stehen wir heute bezogen auf den Einsatz künstlicher Intelligenz in der Arbeitswelt?

Die künstliche Intelligenz gibt es als Begriff und Projekt schon seit Mitte der 1950er-Jahre. Sie hat eine bewegte Geschichte hinter sich und es gab so manche Phasen, in denen sie als tot oder ergebnislos definiert wurde. Das geschah ein paarmal zwischen den späten 1950er-Jahren und dem Ende des vergangenen Jahrtausends. Dabei ist nur nicht ganz klar, an welchem Punkt der Entwicklung wir uns heute befinden: Wenn wir uns einen exponentiellen Kurvenverlauf vorstellen, der aussieht wie ein Eishockey-Stock, dann passt das ganz gut zur Entwicklung der künstlichen Intelligenz. Am Anfang geht kaum etwas weiter in diesem nahezu linear flach verlaufenden Teil des Eishockey-Stocks, der am Eis aufliegt – bis es dann explosionsartig in einem sehr kurzen Zeitraum steil nach oben geht, weil sich die Errungenschaften geradezu überschlagen. Das ist das Wesen einer exponentiellen Entwicklung. Wir dürfen davon ausgehen, dass die Entwicklung der künstlichen Intelligenz einem exponentiellen Verlauf entspricht. Jetzt können wir nur noch darüber diskutieren, ob wir uns knapp davor, mitten drin oder nach diesem Kurvenpunkt, also dem Knick im Eishockey-Stock, befinden. Da mögen sich die Geister scheiden, aber das ist wenig relevant, denn es handelt sich nur um Differenzen von einigen Jahren mehr oder weniger.

Im Zuge dieser Entwicklung würden die Systeme immer intelligenter werden – und sich auch selbst weiterentwickeln. Wie lernfähig sind Anwendungen der künstlichen Intelligenz denn heute schon?

Hier gibt es Fortschritte, die aber auch unterschiedlich eingeschätzt werden. Wir sprechen von Machine Learning, wenn Systeme in der Lage sind, mit Daten – im optimalen Fall mit beliebigen unstrukturierten Daten – so umzugehen, dass sinnvolle Ergebnisse raus kommen – und zwar ohne dass ein Experte seine Finger im Spiel hat. Wenn dieses Machine Larning dann auch mit der Fähigkeit – sprich dem Algorithmus – ausgestattet ist, selbst zu lernen, dann sprechen wir von Deep Learning. Dieses Deep Learning, basierend auf mittlerweile recht erfolgreichen Architekturen – den künstlichen neuronalen Netzen,  hat das Potenzial sich selbst zu verbessern. Für die einen sind diese Systeme heutzutage noch immer nicht intelligent genug. Unterhaltungen mit Siri & Co geben Zeugnis davon. Für die anderen ist es jedoch nur eine Frage der Zeit, bis wir von der Superintelligenz mehr als nur beeindruckt werden. Denn es gibt schon erstaunliche Errungenschaften, beispielsweise in der Mustererkennung, siehe Gesichter erkennen, Musik komponieren oder Texte verfassen. Das sind Fähigkeiten, die sehr nah an dem sind, was wir mit Intelligenz und Menschenähnlichkeit assoziieren. Daher laufen wir Gefahr, dies schon als intelligentes System zu definieren. Das Problem ist aber nach wie vor, dass die Systemgrenzen nicht überwunden werden – der Schachcomputer kann nicht Texte übersetzen. Richtig spannend wird es erst, wenn die KI die Warum-Frage beantworten kann.

Was könnte sich in der Weiterbildung verändern, wenn wir in Zukunft zunehmend künstliche Intelligenz am Arbeitsplatz nutzen würden? Benötigen wir dann überhaupt noch Weiterbildung?

Die künstliche Intelligenz verspricht ja all die Begrenzungen nicht zu haben, denen wir als Menschen unterliegen – zum Beispiel bezogen auf Aufnahmefähigkeit oder Speichervolumen. Das kann für uns sehr hilfreich sein. Hinzu kommt, dass wir in der Lernforschung erkannt haben, dass Lernen dann besonders effektiv ist, wenn wir eine individuelle Begleitung in Form eines guten Lehrers oder Lerncoachs haben. Wir können nicht alle einen persönlichen Lernassistenten haben, das geht sich nicht aus. Aber jeder Lernende könnte einen virtuellen Avatar haben, der mit der Zielsetzung der Weiterbildung vertraut ist und enorme Datenmengen absorbieren, verarbeiten und zielentsprechend darbieten kann. Er könnte Hinweise auf Nachholbedarf geben und konkrete Vorschläge machen, welche Schritte in welchem Zeitraum angebracht wären. Solche Umsetzungen sind im Anflug – und das sehe ich ganz positiv. Wir sind hier noch in der Frühphase, es gibt zahlreiche Akteure, von denen wir praktikable Ergebnisse erwarten dürfen.

Aber Lernbegleiter, also Hilfe von aussen, sind nicht der einzige Zugang. Schauen wir den anderen an. Dabei geht es um unser Gehirn selbst. Wir wissen heute, dass sich unsere Erinnerungsleistung und Konzentrationsfähigkeit erhöhen, wenn wir bestimmte Areale des Gehirns stimulieren. Auf dem Gebiet der Neurotechnologien gibt es beachtliche Errungenschaften. Als Beispiel nenne ich eine Studie mit Piloten – und zwar Novizen und Profi-Piloten, die am Simulator den Landeanflug übten. Den Profis, die das gut konnten, wurde das EEG abgenommen – und anschließend der Vergleichsgruppe mittels transkranieller Gleichstromstimulation direkt appliziert. Das heißt, die Strommuster der einen Gruppe wurden auf die andere nichtinvasiv übertragen – mit dem Ergebnis, dass die Novizen die Aufgabe besser lösten. Natürlich gibt es in diesem Bereich viele ethische Schranken weshalb vieles unveröffentlicht bleibt. Grundsätzlich sehe ich hier aber ein großes Potenzial für das Lernen auf uns zukommen.

Aber was verändert sich gesellschaftlich, wenn wir die künstliche Intelligenz immer stärker mit der menschlichen verbinden?

Stellen wir uns vor wie sich die künstliche Intelligenz exponentiell weiterentwickelt, während gleichzeitig die Computerleistung steigt. Denken wir an die Quantencomputer, die heute zwar noch eher auf der Entwicklungsstufe eines Krabbelbabys stehen aber dort nicht bleiben werden. Als drittes hinzu kommt die Neurotechnologie. Wenn wir diese drei Entwicklungsstränge zusammenführen – wohin könnte das gesellschaftlich führen?

Schon heute ist es so, dass wir Menschen viel Zeit vor Computerbildschirmen und Smartphones verbringen. Diese Screen-Time wird aller Voraussicht nach steigen und sich gar der 24 Stunden Marke nähern, spätestens dann, wenn wir über wirklich smarte Geräte verfügen. Wenn wir also ohne Fünf-Finger-Flaschenhals gechippt direkt mit dem großen „KI-Google-Quantencomputer“ verbunden sind.  Wenn der große „KI-Google-Quantencomputer“ direkt mit unserem Neocortex agiert, das würde – wie Stephen Hawking es beschrieben hat – tatsächlich das Ende der Menschheit in ihrer bisherigen Form bedeuten. Die Menschen agieren, handeln, denken dann zwangläufig gänzlich anders, indem sie unmittelbar im globalen Netz eingebunden sind. Das Internet der Dinge ist dann um ein paar Units gewachsen. Aber das alles hat seinen Preis, einen sehr hohen, denke ich.

Ist das ein realistisches Szenario?

Es ist auf jeden Fall ein mögliches Szenario.

Interview: Bettina Geuenich