Ludwig-Maximilians-Universität München
print

Links und Funktionen
Sprachumschaltung

Navigationspfad


Inhaltsbereich

Künstliche Intelligenz

Wie schlau kann KI werden?

München, 12.03.2019

Roboter, die mit Menschen sprechen, Maschinen, die Bestseller und Zeitungen schreiben, Algorithmen, die für Firmen Mitarbeiter auswählen: Wohin wird sich künstliche Intelligenz entwickeln? Wo liegen ihre Grenzen? Was Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen dazu sagen:

Wie schlau können Maschinen werden? Werden Sie einst den Menschen überflügeln?

Professor Thomas SeidlWorauf beruht überhaupt die „Intelligenz“ von KI?

Thomas Seidl, Inhaber des Lehrstuhls für Datenbanksysteme und Data Mining

„Im Kern besteht künstliche Intelligenz in der Nachahmung von Verhalten, das als intelligent angesehen wird. Formal lässt sich KI als mathematische Funktion verstehen: Situationen, Beobachtungen, Fragestellungen und Aufgabenstellungen aus der realen Welt werden als Eingaben auf geeignete Antworten, Entscheidungen und Handlungsoptionen als Ausgaben abgebildet. KI-Systeme der ersten Generation beschreiben diese Funktionen durch handgestrickte Regeln. Systeme zur Spracherkennung werden dabei durch die formale Erfassung aller Regelmäßigkeiten und vieler Unregelmäßigkeiten modelliert. Diese Systeme stoßen schon früh an ihre Grenzen, da Sprache aus dem täglichen Gebrauch weit mehr Unregelmäßigkeiten aufweist als vorhersehbar. Neuere KI-Systeme lernen die Funktionen selbsttätig aus sorgfältig ausgewählten Beispielen. Dazu werden Funktionsmuster gewählt, die beispielsweise auf den Prinzipien von Entscheidungsbäumen oder neuronalen Netzen basieren, und durch automatische Verfahren an die Trainingsbeispiele angepasst. Auf diese Weise kann Sprache etwa aus Zeitungen, Büchern, Redemanuskripten oder Parlamentsdebatten genutzt werden, um Modelle möglichst realitätsnah formal zu erfassen.

Ein Schlüssel beim automatischen (gleich maschinellen) Lernen ist das Prinzip des Reinforcement Learning, also des selbstverstärkenden Lernens. Das bedeutet, das Systemverhalten an Rückmeldungen zu Erfolgen und Misserfolgen anzupassen. Die ‚Programmierung‘ beschränkt sich dann zu einem guten Teil darauf, Kriterien zur Messung von Erfolg oder Misserfolg mathematisch zu fassen, beispielsweise durch die Definition von Belohnungswerten und von Strafpunkten für erwünschte beziehungsweise unerwünschte Entscheidungen. Anhand solcher Rückmeldungen passt ein selbstlernendes System sein künftiges Verhalten entsprechend an. In diesem Sinn ist die KI dem Lernen bei Menschen und anderen Organismen sehr ähnlich, die auch durch ‚Trial and Error‘ ihr Verhalten verfeinern.“

Professor Markus Paulus, Lehrstuhl für Entwicklungspsychologie und Pädagogische Psychologie IIWerden Roboter den Menschen überflügeln?

Markus Paulus, Inhaber des Lehrstuhls für Entwicklungspsychologie und Pädagogische Psychologie II

„Es gibt einen grundlegenden Unterschied: Menschliche Intelligenz ist in unsere Kultur eingebettet. Unsere begrifflichen Vorstellungen und Konzepte sind historisch gewachsen, sie sind Teil einer sozialen Lebensform. Nur ein Wesen, das in dieser Kultur aufwächst, kann sie wirklich verstehen. Wir können zwar einzelne Aspekte, Inselkompetenzen, bei Robotern simulieren, die dann auch dem menschlichen Verhalten ähneln. Aber die menschliche Intelligenz umfasst so viel mehr Aspekte. Ein Mensch weiß, dass Rot eine Farbe ist, wie sie aussieht, welche Objekte in der Welt normalerweise rot sind, wessen Lieblingsfarbe es ist – da ist ein ganzes Netz an Wissen. Dazu gehört auch, dass man Nuancen und Humor versteht. Manches lässt sich auch nur erfassen, wenn man einen Körper, sensorische Eindrücke hat. Hier wird von embodied cognition gesprochen. Man muss Schmerz fühlen können, um zu wissen, was ihn ausmacht. Auch Empathie entwickelt sich nicht, wenn man nicht nachfühlen kann. Da ist ein fundamentaler Unterschied zwischen Robotern und Mensch, sodass künstliche Intelligenz niemals menschliche Intelligenz erreichen wird. Vielleicht können Roboter in manchen Fähigkeiten Menschen übertreffen. Aber in der Bandbreite dessen, was der Mensch kann, in der Flexibilität, in der Grundsätzlichkeit, wird KI nicht an den Menschen herankommen.“ 

Professor Oliver Jahraus, Lehrstuhl für Neuere deutsche Literatur und MedienSchreiben künftig Maschinen Bestseller?

Prof. Dr. Oliver Jahraus, Lehrstuhl für Neuere deutsche Literatur und Medien

„Das wäre die Horror-Vorstellung, dass künstliche Intelligenz, ergänzt um künstliche Kreativität, auch noch in jenen Bereich eindringt, in dem es in ganz besonderer Weise um eine Selbstverständigung des Menschen mit sich selbst geht, in den Bereich der Literatur. Ausgestattet mit dem empirisch ermittelten Wissen, was wir alle so gerne lesen wollen, schreibt die Maschine den neuen Werther für uns, der uns im Innersten berührt? Vielleicht ließe sich die Diskussion um KI wesentlich entspannter führen, wenn man darauf achtet, was man von der Literatur lernen kann. Literatur ist immer schon eine Vermittlung zwischen einem unpersönlichem Medium (einer Schrift und seiner Semantik, die alle teilen) und einer sehr individuellen Geschichte. Sie impliziert immer schon die Zurechnung auf einen Autor, eine Autorin. Es ist nicht die Frage, ob KI den Bestseller schreibt, ob sie uns täuscht, ob sie Goethe ersetzen kann, sondern ob sie sich einbetten lässt in ein komplexes System von Zurechnungen, in dem immer neu das Verhältnis von Allgemeinem und Individuellem ausgehandelt werden muss. Diese Funktion einer Selbstverständigung wird die KI erst oder nur übernehmen können, wenn sie selbst ein Selbst ist. Das halte ich allerdings strukturell (nicht nur technisch) für unmöglich.“

Professor Hindrich SchützeWerden Maschinen bald besser übersetzen als jeder Mensch?

Hinrich Schütze, Inhaber des Lehrstuhls für Computerlinguistik und Direktor des Centrums für Informations- und Sprachverarbeitung (CIS)

„In einigen Fällen wird eine Maschine sicher bald besser übersetzen können als der Mensch. Ein Computer ist schneller, er kann beispielsweise spezialisiertes technisches Vokabular besser parat haben. Einfache Textformate wird er gut bewältigen. Es wird aber eine Grenze geben, die er nicht erreicht. Ironie, Sarkasmus, ja überhaupt jede Form von literarischen Texten mit ihren Sprachnuancen, mit ihren Anspielungen – es ist zweifelhaft, ob das eine Übersetzungsmaschine je wird transportieren können. Ein weiterer Punkt: Algorithmen lassen die Maschine in Teilen zum Menschen aufschließen, aber auch der Nutzer passt sich dem Rechner an. Google Translate zum Beispiel kann uns die Kommunikation selbst mit einem Gegenüber ermöglichen, der nur Thai spricht. Voraussetzung ist, dass man die Sprache einfach hält. Das ähnelt der Art, wie wir gelernt haben, mit Suchmaschinen zu kommunizieren. Wir geben dort zum Beispiel ‚Einstein Geburtstag‘ ein. An einen Menschen würden wir die Frage nie so richten. Tatsächlich aber sind Suchmaschinen eine machtvolle Innovation und heute ein hilfreiches Werkzeug für jeden. Und genauso hat Google Translate ein großes Potenzial. Das heißt aber nicht, dass es hier um eine Intelligenz im menschlichen Sinne ginge. Überhaupt: Was verstehen wir eigentlich unter künstlicher Intelligenz? Früher galt schon ein Schachcomputer als Beispiel dafür. Würde man das heute auch noch so sehen? Die Grenze für das, was wir als KI definieren, schiebt sich offenbar immer weiter hinaus.“

Professor Sarah Diefenbach, Lehrstuhl für Wirtschafts- und OrganisationspsychologieWas macht das mit uns, wenn wir mit Chatbots kommunzieren?

Prof. Dr. Sarah Diefenbach, Lehrstuhl Wirtschafts- und Organisationspsychologie

„Was logische Dinge angeht, alles was sich in Formeln packen lässt, kann KI bestimmt sehr, sehr schlau werden, uns überholen und vieles abnehmen. Noch interessanter finde ich als Psychologin aber Bereiche, in denen stärker emotionale Aspekte eine Rolle spielen und allgemein die Frage, wie KI unser Zusammensein und die Interaktion zwischen Menschen verändert. Zum Beispiel im Servicebereich: Was macht das mit uns, wenn wir auf einmal merken, wir haben die ganze Zeit mit einem Chatbot kommuniziert und es gar nicht gemerkt – fühlen wir uns danach schlechter beraten? Oder weniger wertgeschätzt? Oder auch die Rolle von Bots in sozialen Netzwerken. Eine meiner Studentinnen untersucht dazu gerade in ihrer Masterarbeit den Einfluss von Likes auf Instagram für den Selbstwert der Nutzer – und ob es eine Rolle spielt, ob die Likes von einer realen Person oder einem Bot-Profil stammen. In einem anderen Projekt beschäftigen wir uns mit Social Robots und der Frage der passenden Persönlichkeit für solche Roboter, zum Beispiel im Heimkontext. Soll ein Roboter immer nett und lieb sein, wie ein unterwürfiger Diener? Oder kann auch ein grummeliger Roboter mit Bedürfnissen, Ecken und Kanten – eben eine ‚echte Persönlichkeit‘– gerade eine Bereicherung sein?"

thurman_260Werden Roboter Journalisten ersetzen?

Neil Thurman, Professor am Institut für Kommunikationswissenschaften der LMU

„Lassen sich die Aufgaben von Journalisten völlig automatisieren, sodass sie sogar ohne oder höchstens mit geringer menschlicher Kontrolle ausgeführt werden können? Momentan muss die Antwort darauf Nein lauten, eine solche Automatisierung ist zumindest nicht für alle journalistische Formen und Methoden realisierbar. Die Notwendigkeit, Aufgaben in kleine wiederholbare Routinen aufzusplitten – was eine Voraussetzung ist, um Algorithmen zu programmieren –, und die Abhängigkeit der Maschinen von Daten und Beispielen, auf deren Basis sie lernen, begrenzen die Möglichkeiten der Automatisierung in einem so komplexen und kreativen Aufgabenbereich wie dem Journalismus, bei dem zudem viele Anforderungen gleichzeitig erfüllt werden müssen.

Das hat nicht verhindert, dass die Automatisierung bereits in den Journalismus Einzug gehalten hat. Algorithmen tragen inzwischen etwa dazu bei, Geschichten zu identifizieren, Texte zu erstellen und Entscheidungen darüber zu treffen, welche Texte wann mit welcher Priorität und für welche Zielgruppe veröffentlicht werden.

Manche sprechen dem ‚Roboter-Journalismus‘ das Potenzial zu, die Finanzierung des Journalismus zu stützen und Ressourcen freizusetzen, die dann für investigative Recherche genutzt werden können. Es gibt jedoch auch Bedenken, gerade was die Personalisierung von Nachrichten und den Datenschutz betrifft und die Befürchtung, dass dadurch weitere Informationsblasen entstehen.

Im Zuge der weiteren Entwicklung von Algorithmen und künstlicher Intelligenz gilt es sicherzustellen, dass der Journalismus seine Aufgaben weiterhin nachhaltig, transparent und verantwortlich ausüben kann.“

Professor Monika Schnitzer, Seminar für Komparative WirtschaftsforschungWird KI uns ökonomische Entscheidungen abnehmen können?

Professor Monika Schnitzer, Seminar für Komparative Wirtschaftsforschung

„Künstliche Intelligenz produziert mit Hilfe von Daten ‚Einschätzungen‘. Zum Beispiel kann eine Kreditkartenunternehmung künstliche Intelligenz verwenden, um auf der Basis von Erfahrungswerten die Wahrscheinlichkeit zu berechnen, ob eine Kreditkarte, die gerade zum Kauf eingesetzt werden soll, gestohlen ist. Je nach Datenlage wird die Wahrscheinlichkeit, dass es sich um eine gestohlene Kreditkarte handelt, als höher oder niedriger eingeschätzt. Basierend auf dieser Einschätzung kann die Zahlung verweigert werden oder nicht.

Solche Einschätzungen sind die Grundlage vieler Geschäftsmodelle. Künstliche Intelligenz kann die Kosten dieser Einschätzungen drastisch verringern, in dem sie große Datenmengen über frühere ähnliche Situationen auswertet. Was die heutigen KI-Methoden allerdings noch nicht können, ist, die Folgen von Handlungen selbständig zu bewerten. Welche Handlungsoptionen ziehen wir in Betracht, welche Sicherheitsmargen räumen wir ein? Diese Entscheidungen werden auch in Zukunft von Menschen getroffen werden müssen, Maschinen führen nur aus, was Menschen ihnen vorgeben.“

Professor Markus Bühner, Lehrstuhl für Psychologische Methodenlehre und DiagnostikWerden Algorithmen neue Mitarbeiter auswählen?

Markus Bühner, Inhaber des Lehrstuhls für Psychologische Methodenlehre und Diagnostik

„Algorithmen werden bereits bei der Personalauswahl genutzt. Sie können Entscheidungsprozesse stützen, aber sie nicht ersetzen. Ich glaube, dass auf diesem Markt zurzeit sehr viel versprochen wird, was sich am Ende nicht halten lässt. Mir ist häufig unklar, wie groß der Nutzen dieser Algorithmen wirklich ist. Natürlich kann eine Vorhersage, ob ein Bewerber auf eine bestimmte Stelle passt, theoretisch besser sein, wenn dem Algorithmus Millionen Variablen von jedem Menschen zugrunde liegen. Entscheidend dafür ist aber die Qualität. Wenn zum Beispiel Stimmparameter genutzt werden: Was ist, wenn ein Kandidat eine Erkältung hat oder kein Muttersprachler ist? Nach der DIN-Norm für die Personalauswahl müssen die Informationen, die man für die Eignungsdiagnostik erhebt, zudem anforderungsrelevant für die jeweilige Position sein. Man darf also nicht einfach alles erheben und auswerten. Ich bin auch sehr gespannt, wie der Einsatz von Algorithmen mit der Datenschutzgrundverordnung in Einklang zu bringen ist, die ja auch das Recht auf Transparenz vorsieht. Und selbst wenn die ethischen und rechtlichen Aspekte geklärt sein sollten, bleibt die Frage nach der Validität der Algorithmen. Damit sie möglichst gute Vorhersagen für die Eignung neuer Bewerber machen, müssen sie ständig weiterentwickelt werden, weiterlernen.“ 

friedrich_260_web
Foto: Marek&Beier Fotografen

Was bedeutet eigentlich Intelligenz?

Dr. Orsolya Friedrich, Institut für Ethik, Geschichte und Theorie der Medizin

„Eine Gegenfrage scheint an dieser Stelle fast spannender zu sein, nämlich, was es bedeutet schlau zu sein. Bereits die Bedeutung von Intelligenz zu erfassen, stellt uns vor größere Probleme. Ein schneller und effizienter Umgang mit Daten zur Problemlösung, wäre etwa weder ausreichend, um die Potenziale von KI zu beschreiben, noch um mögliche Bedeutungen von Intelligenz einzufangen. KI hat bereits gezeigt, dass in engeren, strukturierten Bereichen wie Schach so etwas wie kreative Lösungsfindung möglich ist. Deutlich schwieriger scheint dies im Moment noch für KI, wenn die Anwendungsbereiche komplexer werden. In komplexen Bereich unseres Lebens gilt es normalerweise als ein intelligentes Vorgehen, erstmal die richtigen Fragen zu stellen, Probleme zu sondieren, oder passende Verbindungen herzustellen. Man könnte aber auch ein Verständnis von Intelligenz oder „schlau sein“ vertreten, bei dem es auf eine adäquate Emotionswahrnehmung oder auf eine gute Anpassung an die Umwelt ankommt. Es ist vorstellbar, dass KI in der Simulation davon etwa gewisse Erfolge erlangen wird. Allerdings – so eine Annahme – sind diese Fähigkeiten beim Menschen existenzieller Art; Menschen nehmen Gefühle auch deshalb wahr oder passen sich an die Umwelt an, um mit anderen Menschen und der Welt zurechtzukommen. Ob eine solche Differenz wiederum die Schlauheit von KI beeinträchtigt, ist erneut eine konzeptionelle Frage, die wir Menschen uns stellen und beantworten müssen.“

Julian Nida-Rümelin, Professor für Philosophie und politische Theorie„Wir schaffen keine Gegenüber“

Julian Nida-Rümelin, Professor für Philosophie und politische Theorie

„Die Entwicklung der künstlichen Intelligenz ist im Augenblick eine Art Suchbewegung. Es gibt einen starken Trend, damit menschliche Fähigkeiten nachzuahmen: bei der Gesichtserkennung etwa, in der Robotik. Es ist aber fraglich, ob das die Zukunft bestimmen wird. Wir sollten nicht das Unbelebte durch Projektionen zu beleben versuchen. Wir schaffen keine Gegenüber. Wir sollten uns auf die produktiven Kerne der Wirtschaft besinnen. Wenn die Initiativen zur Industrie 4.0 vor allem instrumentell und technisch orientiert sind, kann die Digitalisierung viel zum ökonomischen Fortschritt beitragen.”