Fenster schliessen
 | RSSImpressum | Login logo
logo



Was ist der Unterschied zwischen »Maschinellem Lernen« und der neuen »Künstlichen Intelligenz«?


26.03.2024  

Apple hat wiederholt neue Funktionen vorgestellt, die sich an den Nutzer anpassen können. Diese Anpassung erfolgte durch maschinelles Lernen. Die Ergebnisse waren teils gut, oft nur vage spürbar und manchmal sogar enttäuschend. Diese Erfahrungen könnten die teils ablehnende Haltung einiger Apple-Nutzer gegenüber der neuen Künstlichen Intelligenz erklären. Dabei handelt es sich jedoch um grundlegend verschiedene Konzepte.

Was ist Maschinelles Lernen?

Maschinelles Lernen könnte man beschreiben als "Versuch zu erraten, was der Nutzer möchte". Ein Beispiel hierfür wäre, wenn das iPhone einen Foto-Rückblick einer Reise vorschlägt, die vor einem Jahr unternommen wurde. Das iPhone ist zwar für die Erstellung eines Foto-Rückblicks programmiert. Die Kriterien für ein besonderes Ereignis bleiben jedoch offen. Man könnte sich vorstellen, dass der Nutzer zu einem bestimmten Zeitpunkt besonders viele Fotos gemacht hat. Technisch gesehen wird hier nach einem Muster gesucht, ohne dass die Entwickler genau festlegen müssen, worin dieses Muster besteht. Maschinelles Lernen kann unterschiedlichste Muster erkennen, auch solche, an die noch niemand gedacht hat. Es ist jedoch ein statistisches Verfahren.

Solche ML-Systeme können beeindruckende Fähigkeiten entwickeln, wie das Erkennen von Krankheiten anhand von Röntgenbildern oder Blutanalysen. Sie entdecken kleinste Unregelmäßigkeiten im Gang eines Menschen, die auf eine beginnende Nervenkrankheit hinweisen können. Bei intensivem Training können sie sogar die Genauigkeit erfahrener Ärzte übertreffen. Dennoch gelten diese Systeme nicht als intelligent, da sie lediglich Muster erkennen.

Was ist Künstliche Intelligenz?

Künstliche Intelligenz hingegen kann Aufgaben bewältigen, die bisher Menschen vorbehalten waren. Erstaunlich ist ihre Fähigkeit, Problemstellungen zu verstehen, die von keinem Programmierer explizit eingegeben wurden. Ab einer bestimmten Systemgröße, die bis vor Kurzem unvorstellbar schien, kann eine KI Schlüsse ziehen und Schritt für Schritt Lösungen entwickeln. Die Zuverlässigkeit dieser Antworten ist in manchen Bereichen nicht so hoch wie gewohnt, doch der Vorteil, neue und unvorhersehbare Aufgaben zu lösen, überwiegt deutlich.

Beim maschinellen Lernen muss ein Programmierer jede Funktion explizit programmieren, wobei statistische Daten innerhalb des Programms automatisch entstehen. Ein Beispiel wäre eine Diktierfunktion, die aus Nutzerkorrekturen lernt und sich an Fachbegriffe oder Dialekte anpasst. Der Code ist festgelegt, aber die Daten sind variabel. Da die meisten Nutzer keinen Code schreiben können, sind die Anwendungsmöglichkeiten begrenzt.

Künstliche Intelligenz erfordert keinen vom Nutzer erstellten Code. Die Maschine erkennt selbstständig, welche Schritte notwendig sind, um Nutzerwünsche zu erfüllen, und programmiert sich quasi selbst. Nutzer können komplexe Aufgaben in natürlicher Sprache formulieren und sind in ihrer Aufgabenstellung völlig frei.



Ist es tatsächlich intelligent?

Derzeit weiß niemand genau, warum sich KI-Systeme auf bestimmte Weisen verhalten und welche Fähigkeiten sie besitzen. Ab einer gewissen Skalierung entwickeln sie Fähigkeiten, mit denen Entwickler und Wissenschaftler nicht gerechnet haben. Die neuen Systeme erlangen ihre Fähigkeiten auf Basis einer riesigen Datenmenge quasi von selbst. Es werden ständig neue Fähigkeiten entdeckt, die zuvor unbekannt waren. Auf der grundlegendsten Ebene sind die Funktionen klar und einfach, zumindest für Mathematiker. Doch im großen Maßstab sind die Ergebnisse unvorhersehbar.

Als die ersten Sprachmodelle wie ChatGPT plötzlich weltbekannt wurden, flog der Trick schnell auf. Die KI prognostizierte auf intelligente Weise das nächste Wort, um eine stimmige Antwort zu generieren, die möglichst auf ähnliche Fragen passt. Auf die üblichen Blabla-Fragen bekam man die üblichen Blabla-Antworten. Doch dann entdecke man, dass die Systeme tatsächlich Probleme lösen konnten. Man kann ihnen beispielsweise einen Programmcode vorlegen und sie fragen, ob sie einen Fehler erkennen, den man selber nicht zu finden vermochte.

Die Frage, ob diese Systeme »wirklich« intelligent sind, wird intensiv diskutiert. Es scheint, als habe man ein Prinzip entdeckt, das – weiterverfolgt – zu immer intelligenteren Systemen führt. Dabei basieren die Antworten nicht mehr auf einem »Trick«, sondern auf einer fundierten Analyse von Problemen und ihren Lösungen.

Ein großer Teil der Arbeit, um diese Systeme auf nützliche Antworten zu trainieren, besteht aus Feinabstimmungen durch verschiedene Gewichtungen und Parameter. Es ist, einfach gesagt, eine Tüftelei. Eigentlich sind wir es gewohnt, dass Informatiker und Programmierer mit mathematischer Präzision arbeiten. Bei großen KI-Systemen mit Trillionen von Parametern ist dies jedoch nicht mehr möglich. Man ändert vielleicht eine Gewichtung, die für die »Quasselfreudigkeit« oder für gewisse »kreative Abweichungen« steht, von 0.7 auf 0.8. Und dann schaut man, wie sich das System verhält; also ob es anfängt, zu spinnen.

Wie haarsträubend dieses unvorhersagbare Verhalten manchmal sein kann, wird verdeutlicht durch eine Untersuchung, die zeigte, dass sich die Systeme unterschiedlich verhalten, je nachdem, wie viel »Trinkgeld« man ihnen für die richtige Lösung anbietet. Je mehr Trinkgeld man ihnen versprach, desto exakter hielten sie sich an die Vorgaben ihrer Aufgabe. Ich brauche wohl nicht zu beweisen, dass eine solche Funktion niemals einprogrammiert wurde.



Wird eine einzige Firma alles dominieren?

Eine KI, die Texte für Bücher und Zeitungen erzeugt, muss etwas freier antworten können, als eine KI, die auf eine Klageschrift eines Anwalts reagiert; oder die eine Buchhaltungssoftware auf ein neues Gesetz anpassen soll. Es ergibt sich also (zumindest vorübergehend) die Notwendigkeit, mit viel Tüftelei ein solches Grundsystem auf eine bestimmte Anwendung zu trainieren und zu optimieren.

Das lässt Spielraum für eine Vielzahl von Anbietern. Beispielsweise könnte es eine Firma oder eine Community geben, die ein solches System ganz besonders erfolgreich auf medizinische Fragen trainiert. Eine andere Gruppe könnte dasselbe System zu einem sehr guten Lehrer formen, der über ausgezeichnete pädagogische Fähigkeiten verfügt. Es ist also nicht der Fall, dass eine einzige KI jede nur denkbare Fähigkeit im bestmöglicher Weise bietet. Es ist aber definitiv der Fall, dass eine grundlegende KI in jeder dieser Disziplinen trainiert werden kann.

Es könnten am Ende eine oder zwei Grundsysteme existieren, die von allen Gruppen als Basis benutzt wird — so wie es derzeit bei Betriebssystemen der Fall ist. Analog dazu können auf dieser Basis sehr viele spezialisierte Varianten entstehen — wie es derzeit bei Apps der Fall ist. Man kann leicht erkennen, wie sich das gewohnte System aus »Betriebssystem und App« in Zukunft wandeln wird: Wenn irgendeine Firma (BMW, Miele, Adidas, …) früher eine Software für interne Zwecke geschrieben hätte, und zwar auf Basis von Windows oder macOS, dann wird sie in Zukunft vermutlich eine grundlegende KI für die eigenen Zwecke trainieren. Die »spezialisierte KI« ist sozusagen die »neue App«.

Ob Apple dann zu den wichtigen Anbietern gehören wird, muss man wohl abwarten.

(Die Bilder des Artikels wurden erzeugt mit KI und Stable Fusion.)

Diskussion im Forum