Jetzt auch noch die USA! Monopolprozess gegen Apple
Es ist eine Bombe, die nicht ganz unerwartet einschlug: die Eröffnung eines Monopolprozesses gegen Apple durch das amerikanische Justizministerium. Es erinnert an vergangene Zeiten, als Microsoft die IT-Branche dominierte. Nun steht Apple vor ähnlichen Herausforderungen. Die Diskussion darüber ist von großer Bedeutung, weit über bloße AGB-Streitigkeiten der EU hinaus. Die Klage wirft Apple vor, durch sein iPhone eine monopolistische Position auf dem Smartphone-Markt zu nutzen, was sowohl Verbrauchern als auch der Konkurrenz schadet. Dies wirft Fragen auf über Apples Geschäftspraktiken und potenzielle Auswirkungen auf den Markt. Was sind die genauen Vorwürfe und wie wird Apple darauf reagieren? (Spielzeit: 55 Minuten.)
Das obige Spiel wurde vollständig von einer künstlichen Intelligenz programmiert. Man kann den linken Puck mit der Maus nach oben/unten bewegen. Der rechte Puck wird von der KI gesteuert. Es hat mich nur wenige Minuten gekostet, das kleine Spiel zu erzeugen.
Ich habe die KI gebeten, Buttons zu erzeugen, mit denen die Anwender die Hintergrundfarbe der Webseite ändern können. Die KI hat das Problem in 10 Sekunden wie folgt gelöst:
Wann ist eine Computerfirma wichtig und mächtig? Liegt das an den Umsätzen? Nicht auf Dauer. Denn die Wichtigkeit und die Macht einer Computerplattform ergibt sich aus den APIs und deren Verwendung. Unter APIs versteht man Bausteine eines Betriebssystems, mit denen Software-Entwickler ihre Apps aufbauen können. APIs ermöglichen es Entwicklern, auf bereits vorhandene Funktionen zuzugreifen, ohne diese von Grund auf selbst entwickeln zu müssen. Weiterlesen »
Das hat drei wichtige Folgen: Erstens, eine leistungsfähige API kann eine ganze Plattform auf ein höheres Niveau heben, weil die Entwickler bereits von einem höheren Niveau starten können. Das hält die Plattform attraktiv und wettbewerbsfähig für die Anwender. Zweitens, eine leistungsfähige API bindet die Entwickler an die Plattform. Drittens, eben dies ist die Voraussetzung dafür, dass es überhaupt jemanden interessiert, wenn Apple zu einer WWDC einlädt, um die neuen Funktionen zu demonstrieren. Es ist also ein Kreislauf: Gute APIs sind die Voraussetzung für gute Apps, dies bindet die Kunden, dies bindet die Entwickler, und dies macht den Anbieter relevant, sodass er die APIs weiter ausbauen kann.
Wenn dieser Kreislauf ins Stocken gerät, verliert der Plattformbetreiber seinen Einfluss. Selbst wenn er gute Innovationen bieten würde, käme es nicht mehr im Markt an. Es ist daher unverzichtbar, dass ein Plattformbetreiber es erreicht, dass seine APIs benutzt werden.
Neue Spielregeln
Mit dem überfallartigen Erfolg von Künstlicher Intelligenz ändert sich das Spiel. Aktuell dominiert OpenAI das Feld der KI-Entwicklungswerkzeuge, unterstützt durch die Partnerschaft mit Microsoft. Ihr Erfolg liegt nicht nur in der Leistungsfähigkeit ihrer KI-Modelle, sondern auch in der Vielfältigkeit und Zugänglichkeit ihrer APIs. Diese Werkzeuge ermöglichen es Entwicklern, Anwendungen zu erschaffen, die weit über einfache Chatbots hinausgehen. Tatsächlich steht die KI-Technologie an der Schwelle, die nächste große Plattform zu werden, vergleichbar mit der Revolution durch das Smartphone und dessen App-Ökosystem.
In der allgemeinen Öffentlichkeit wird KI derzeit verbunden mit Quassel-Engines wie ChatGPT: Sie sind unterhaltsam, können Texte kürzen und eventuell als Ersatz für Google oder Wikipedia dienen. Aber sonst?
Tatsächlich ist das nur die Spitze des Eisbergs. ChatGPT ist lediglich eine Anwendung der neuen Technik. Das wahre Potenzial der KI liegt in ihrer Fähigkeit, die Grundlage für zukünftige Apps und Workflows zu bilden. Man kann damit programmieren, nur viel schneller; und man kann damit Lösungen erzeugen, die mit klassischer Programmierung völlig außer Reichweite sind.
Die neuen KI-Systeme sind also nur scheinbar eine »Anwendung«. Unter der Haube verbergen sich Plattformen. ChatGPT ist also weniger eine Konkurrenz zu einer herkömmlichen App (oder zu Siri), als vielmehr eine Konkurrenz zu einem Betriebssystem — in dem Sinne, dass darauf Apps und Lösungen aufgebaut werden.
Ist das gefährlich? Ja. Denn wenn ein Entwickler erhebliche Zeit aufwendet, um damit eine neue Lösung zu bauen, dann wird er nicht bei nächster Gelegenheit zurückkehren zu Apple, falls diese irgendwann ein ähnliches System anbieten. Sondern weg ist weg. Das trifft auf KI-Systeme noch stärker zu als auf klassische APIs, weil KI-Systeme zusätzlich trainiert werden müssen, um sie fit zu machen für bestimmte Anwendungen. Man kann es nicht ohne weiteres auf ein anderes System übertragen. Manchmal dauert es eine Weile, bis ein KI-System zuverlässig die richtigen Antworten gibt oder die richtigen Entscheidungen fällt.
Vermutlich hat Microsoft deswegen so hastig eine Partnerschaft mit OpenAI eingefädelt. Es ging wohl weniger um einen Chatbot innerhalb von Word. Sondern es ging um die APIs, mit denen sich Apps und Anwendungen bauen lassen. Microsoft hat verstanden, dass es sich um eine Plattform handelt. Es geht darum, Entwickler zu binden.
Ein Beispiel
Hier ist ein konkretes Beispiel, welche Art von App man per KI realisieren könnte — und wohlgemerkt, es geht darum, ob der Aufwand dafür so gering ist, dass es sich überhaupt lohnt:
Nehmen wir an, ich würde gerne eine App entwickeln, mit der man sich fit halten, ein paar Kilo abnehmen und etwas gesunder leben könnte. Die App würde Tipps geben, ein tägliches Training vorschlagen und Kochrezepte empfehlen. Es soll aber alles abhängig sein von den Daten des Anwenders. Die Daten wären also nicht fest vorgegeben.
Die Infos dazu (Trainingspläne, Kochrezepte, ein paar kluge Sprüche) hätte ich bereits in Form einiger Bücher. Vielleicht wäre ich selber ein Autor und würde nun das Wissen der Bücher in diese App übertragen wollen.
Das ist mit Apples herkömmlichen APIs eine sehr große Aufgabe. Aber eine KI würde sich die Infos aus den Büchern holen. Ich würde dann eine Reihe von Beispielen geben, wie die zu erwartenden Fragen der Anwender beantwortet werden sollten. Das muss keineswegs vollständig sein, sondern die KI soll nur Beispiele bekommen.
Wenn das Training der KI erledigt ist, sage ich der App genau, was sie tun soll: Jeden Tag eine motivierende Meldung ausgeben, den aktuellen Trainingsplan erläutern, nach dem heutigen Befinden fragen, drei Kochrezepte vorschlagen. Die KI findet selbstständig heraus, wie es diese Aufgaben löst. Es muss nicht programmiert werden. Das ist der Clou.
OpenAI und Microsoft bieten schon heute Werkzeuge an, mit denen sich eine solche App realisieren liesse. Die API ist noch nicht sehr umfangreich, aber man kann immerhin schon eine KI anhand eigener Daten (die man als Datei hochlädt) trainieren. Man kann einen Fragenkatalog hochladen, anhand derer die KI den Anwender befragt, um daraus Schlüsse zu ziehen.
Es ist nicht Siri
In der Gerüchteküche über Apple hört man davon nichts. Man hört von einzelnen Apps wie »Apple Music«, die automatisch irgendwelche Playlisten erzeugen sollen. Oder von einer besseren Version von Siri. Aber das ist überhaupt nicht das, warum es in Zukunft gehen wird. Es geht um Werkzeuge für Entwickler, damit diese dann tausende von neuen Anwendungen schaffen.
Die neuesten Gerüchte von Mark Gurman behaupten, Apple würde Funktionen zeigen, die den Anwendern in ihrem täglichen Leben helfen (»assist users in their daily lives«). Das klingt nach Siri und nach ein paar Komfort-Funktionen. Aber der eigentlich wichtige Punkt ist: Wird Apple überzeugende APIs für Entwickler bereitstellen, sodass die nächste Revolution losbrechen kann? Oder werden sie nur ein paar eigene Apps etwas verbessern? Darauf sollte wir bei der nächsten WWDC achten.
Apple hat wiederholt neue Funktionen vorgestellt, die sich an den Nutzer anpassen können. Diese Anpassung erfolgte durch maschinelles Lernen. Die Ergebnisse waren teils gut, oft nur vage spürbar und manchmal sogar enttäuschend. Diese Erfahrungen könnten die teils ablehnende Haltung einiger Apple-Nutzer gegenüber der neuen Künstlichen Intelligenz erklären. Dabei handelt es sich jedoch um grundlegend verschiedene Konzepte. Weiterlesen »
Was ist Maschinelles Lernen?
Maschinelles Lernen könnte man beschreiben als "Versuch zu erraten, was der Nutzer möchte". Ein Beispiel hierfür wäre, wenn das iPhone einen Foto-Rückblick einer Reise vorschlägt, die vor einem Jahr unternommen wurde. Das iPhone ist zwar für die Erstellung eines Foto-Rückblicks programmiert. Die Kriterien für ein besonderes Ereignis bleiben jedoch offen. Man könnte sich vorstellen, dass der Nutzer zu einem bestimmten Zeitpunkt besonders viele Fotos gemacht hat. Technisch gesehen wird hier nach einem Muster gesucht, ohne dass die Entwickler genau festlegen müssen, worin dieses Muster besteht. Maschinelles Lernen kann unterschiedlichste Muster erkennen, auch solche, an die noch niemand gedacht hat. Es ist jedoch ein statistisches Verfahren.
Solche ML-Systeme können beeindruckende Fähigkeiten entwickeln, wie das Erkennen von Krankheiten anhand von Röntgenbildern oder Blutanalysen. Sie entdecken kleinste Unregelmäßigkeiten im Gang eines Menschen, die auf eine beginnende Nervenkrankheit hinweisen können. Bei intensivem Training können sie sogar die Genauigkeit erfahrener Ärzte übertreffen. Dennoch gelten diese Systeme nicht als intelligent, da sie lediglich Muster erkennen.
Was ist Künstliche Intelligenz?
Künstliche Intelligenz hingegen kann Aufgaben bewältigen, die bisher Menschen vorbehalten waren. Erstaunlich ist ihre Fähigkeit, Problemstellungen zu verstehen, die von keinem Programmierer explizit eingegeben wurden. Ab einer bestimmten Systemgröße, die bis vor Kurzem unvorstellbar schien, kann eine KI Schlüsse ziehen und Schritt für Schritt Lösungen entwickeln. Die Zuverlässigkeit dieser Antworten ist in manchen Bereichen nicht so hoch wie gewohnt, doch der Vorteil, neue und unvorhersehbare Aufgaben zu lösen, überwiegt deutlich.
Beim maschinellen Lernen muss ein Programmierer jede Funktion explizit programmieren, wobei statistische Daten innerhalb des Programms automatisch entstehen. Ein Beispiel wäre eine Diktierfunktion, die aus Nutzerkorrekturen lernt und sich an Fachbegriffe oder Dialekte anpasst. Der Code ist festgelegt, aber die Daten sind variabel. Da die meisten Nutzer keinen Code schreiben können, sind die Anwendungsmöglichkeiten begrenzt.
Künstliche Intelligenz erfordert keinen vom Nutzer erstellten Code. Die Maschine erkennt selbstständig, welche Schritte notwendig sind, um Nutzerwünsche zu erfüllen, und programmiert sich quasi selbst. Nutzer können komplexe Aufgaben in natürlicher Sprache formulieren und sind in ihrer Aufgabenstellung völlig frei.
Ist es tatsächlich intelligent?
Derzeit weiß niemand genau, warum sich KI-Systeme auf bestimmte Weisen verhalten und welche Fähigkeiten sie besitzen. Ab einer gewissen Skalierung entwickeln sie Fähigkeiten, mit denen Entwickler und Wissenschaftler nicht gerechnet haben. Die neuen Systeme erlangen ihre Fähigkeiten auf Basis einer riesigen Datenmenge quasi von selbst. Es werden ständig neue Fähigkeiten entdeckt, die zuvor unbekannt waren. Auf der grundlegendsten Ebene sind die Funktionen klar und einfach, zumindest für Mathematiker. Doch im großen Maßstab sind die Ergebnisse unvorhersehbar.
Als die ersten Sprachmodelle wie ChatGPT plötzlich weltbekannt wurden, flog der Trick schnell auf. Die KI prognostizierte auf intelligente Weise das nächste Wort, um eine stimmige Antwort zu generieren, die möglichst auf ähnliche Fragen passt. Auf die üblichen Blabla-Fragen bekam man die üblichen Blabla-Antworten. Doch dann entdecke man, dass die Systeme tatsächlich Probleme lösen konnten. Man kann ihnen beispielsweise einen Programmcode vorlegen und sie fragen, ob sie einen Fehler erkennen, den man selber nicht zu finden vermochte.
Die Frage, ob diese Systeme »wirklich« intelligent sind, wird intensiv diskutiert. Es scheint, als habe man ein Prinzip entdeckt, das – weiterverfolgt – zu immer intelligenteren Systemen führt. Dabei basieren die Antworten nicht mehr auf einem »Trick«, sondern auf einer fundierten Analyse von Problemen und ihren Lösungen.
Ein großer Teil der Arbeit, um diese Systeme auf nützliche Antworten zu trainieren, besteht aus Feinabstimmungen durch verschiedene Gewichtungen und Parameter. Es ist, einfach gesagt, eine Tüftelei. Eigentlich sind wir es gewohnt, dass Informatiker und Programmierer mit mathematischer Präzision arbeiten. Bei großen KI-Systemen mit Trillionen von Parametern ist dies jedoch nicht mehr möglich. Man ändert vielleicht eine Gewichtung, die für die »Quasselfreudigkeit« oder für gewisse »kreative Abweichungen« steht, von 0.7 auf 0.8. Und dann schaut man, wie sich das System verhält; also ob es anfängt, zu spinnen.
Eine KI, die Texte für Bücher und Zeitungen erzeugt, muss etwas freier antworten können, als eine KI, die auf eine Klageschrift eines Anwalts reagiert; oder die eine Buchhaltungssoftware auf ein neues Gesetz anpassen soll. Es ergibt sich also (zumindest vorübergehend) die Notwendigkeit, mit viel Tüftelei ein solches Grundsystem auf eine bestimmte Anwendung zu trainieren und zu optimieren.
Das lässt Spielraum für eine Vielzahl von Anbietern. Beispielsweise könnte es eine Firma oder eine Community geben, die ein solches System ganz besonders erfolgreich auf medizinische Fragen trainiert. Eine andere Gruppe könnte dasselbe System zu einem sehr guten Lehrer formen, der über ausgezeichnete pädagogische Fähigkeiten verfügt. Es ist also nicht der Fall, dass eine einzige KI jede nur denkbare Fähigkeit im bestmöglicher Weise bietet. Es ist aber definitiv der Fall, dass eine grundlegende KI in jeder dieser Disziplinen trainiert werden kann.
Es könnten am Ende eine oder zwei Grundsysteme existieren, die von allen Gruppen als Basis benutzt wird — so wie es derzeit bei Betriebssystemen der Fall ist. Analog dazu können auf dieser Basis sehr viele spezialisierte Varianten entstehen — wie es derzeit bei Apps der Fall ist. Man kann leicht erkennen, wie sich das gewohnte System aus »Betriebssystem und App« in Zukunft wandeln wird: Wenn irgendeine Firma (BMW, Miele, Adidas, …) früher eine Software für interne Zwecke geschrieben hätte, und zwar auf Basis von Windows oder macOS, dann wird sie in Zukunft vermutlich eine grundlegende KI für die eigenen Zwecke trainieren. Die »spezialisierte KI« ist sozusagen die »neue App«.
Ob Apple dann zu den wichtigen Anbietern gehören wird, muss man wohl abwarten.
(Die Bilder des Artikels wurden erzeugt mit KI und Stable Fusion.)
Angeblich sucht Apple nach einem Partner, der die KI-Technik für die kommenden Versionen von Apples Betriebssystemen bereitstellen kann. Es heißt, Apple wäre dazu (noch nicht) in der Lage. Aussichtsreiche Kandidaten für den Job wären Google und OpenAI. Diese verfügten zudem über die massive Rechenkapazität, die Apple noch fehlt.
Das klingt alles sehr vernünftig. Jedoch gibt es einen kleinen Haken, den man in der Hektik des Nachrichtengeschäfts vermutlich übersah: Apple hat nämlich zwei Milliarden Anwender. Es existiert auf dem gesamten Planeten kein KI-Anbieter, der einen solchen Ansturm bewältigen könnte. Selbst wenn man sie alle kombinieren würde. Weiterlesen »
Angeblich sucht Apple nach einem Partner, der die KI-Technik für die kommenden Versionen von Apples Betriebssystemen bereitstellen kann. Es heißt, Apple wäre dazu (noch nicht) in der Lage. Aussichtsreiche Kandidaten für den Job wären Google und OpenAI. Diese verfügten zudem über die massive Rechenkapazität, die Apple noch fehlt.
Das klingt alles sehr vernünftig. Jedoch gibt es einen kleinen Haken, den man in der Hektik des Nachrichtengeschäfts vermutlich übersah: Apple hat nämlich zwei Milliarden Anwender. Es existiert auf dem gesamten Planeten kein KI-Anbieter, der einen solchen Ansturm bewältigen könnte. Selbst wenn man sie alle kombinieren würde.
Man hört, Siri (oder iMessage) würde in Zukunft alle Fragen beantworten wie ChatGPT. Allerdings wird Siri schlanke 25 Milliarden mal benutzt pro Monat, sagt Yael Garten, einer der für Siri zuständigen Manager. Das sind Größenordnungen, die völlig außer Reichweite sind von allen KI-Systemen, die so ähnlich funktionieren wie ChatGPT oder Gemini. Hinzu kommt, dass Apple-Anwender ihre neuen Spielsachen gerne am ersten Tag ausgiebig testen. Das Desaster beim Launch von MobileMe, bei dem die Server für mehrere Tage komplett lahmgelegt waren, ruft uns in Erinnerung, wie sich ein solcher Ansturm auswirkt.
Wie funktioniert es also?
Alle KI-Anbieter, darunter auch Google und das Gespann aus OpenAI und Microsoft, begrenzen den Ansturm auf zweierlei Weise: Erstens, bei den kostenlosen Systemen handelt es sich um stark abgespeckte Varianten. Bei Überlastung werden neue Anfragen abgelehnt. Zweitens, die leistungsfähigen Varianten sind kostenpflichtig. Und zwar nicht zu knapp. Es gibt verschiedene Stufen, die nicht selten einen fünfzigfachen Preisunterschied aufweisen. Manche Systeme kosten 2 Dollar pro Anfrage. Es ist richtig teuer.
Falls Apple einen kostenlosen KI-Assistenten bietet, dann ist dieser sehr wahrscheinlich in seinen Fähigkeiten am unteren Ende der Skala angesiedelt. Siri könnte vielleicht etwas gesprächiger werden und besser verstehen, was man will. Das wäre schon ein guter Fortschritt. Aber mehr ist kostenlos nicht drin — einfach weil die Kapazität nicht existiert. Vermutlich wird Siri die meisten Funktionen exakt so handhaben wie bisher, und nur wenige Anfragen werden weitergeleitet an die neue KI. Man braucht keine KI, um einen Timer für die Pizza zu stellen.
Eine weitere Möglichkeit wäre, dass es sich um Funktionen handelt, die nicht häufig benutzt werden. Also nicht Siri, sondern vielleicht ein Schreibassistent innerhalb von Pages. Man verstreut ein paar solche Funktionen innerhalb von iWork, Shortcuts oder Safari. Und bei Safari wird’s schon gefährlich.
Kosten im Quadrat
Sehr wahrscheinlich wird Apple die Menge an Informationen begrenzen, die an die KI geschickt werden. Man schickt zwei Dinge an den Server: Den eigentlichen Befehl und den Kontext. Der Kontext kann zum Beispiel ein Dokument sein, das man gerne korrigiert hätte. Je länger der Kontext ist, desto teurer wird es. Die Kosten steigen aber nicht linear, sondern im Quadrat. Mehr als tausend oder zweitausend Zeichen wären geradezu ein Wunder. Ich fände schon 500 Zeichen eindrucksvoll.
Das würde aber ausreichen, damit Siri nicht vergisst, was man vor zehn Sekunden gesagt hatte. Denn bei den KI-Systemen wird im Hintergrund immer der bisherige Verlauf mitgeschickt; auf diese Weise entsteht der Eindruck, die KI würde sich merken, was man zuvor geplaudert hatte. Vielleicht könnte Siri die letzten zwei Anfragen mitsenden.
Eins ist klar: So schnell wie Siri derzeit antwortet (nämlich meist unmittelbar oder überhaupt nicht), kann es per KI nicht funktionieren. Schon deswegen wäre es unklug, einfach alles per KI zu verarbeiten.
Bilderzeugung
In den einschlägigen Meldungen heißt es, die Anwender könnten mit Googles KI-Technik auch Bilder anhand von Text-Kommandos erzeugen. Das schürt Zweifel, ob es sich wirklich um durchgesickerte Informationen handelt. Denn Bilderzeugung gehört zu jenen KI-Aufgaben, die sich durchaus lokal auf den Geräten erledigen lassen. Apple hat eine solche Engine bereits in iOS eingebaut, abgeleitet von »Stable Fusion«, einem Open-Source-Projekt.
Aber wozu soll das gut sein? Vielleicht kann man sich damit ein paar Illustrationen für Pages und Keynote erzeugen lassen. Doch Adobe wird drauf pfeifen. Adobe entwickelt ihre eigene Technik. Dasselbe gilt für Microsoft mit Word und PowerPoint. Warum also sollte Apple sich dafür an Google oder OpenAI wenden? Die Gerüchte sind an dieser Stelle einfach nicht plausibel.
Man mag sich auch fragen, ob Apple wirklich eine Anwendung auf einen Server auslagert, weil sie viel Rechenleistung benötigt? Immerhin verdient Apple seine Brötchen genau damit, dass sie den Grafikprofis sehr schnelle Maschinen verkauft. Wenn die bisherigen Geräte an die Grenze ihrer Leistungsfähigkeit kommen, ist das für Apple sehr gut. Umso eher kaufen die Kunden das neueste Modell.
Kooperation
Es gibt eine weite Bandbreite an Möglichkeiten, sich Partner zu suchen und voneinander zu profitieren. Von Apple wird ein großer Befreiungsschlag gefordert, aber die Technik steht noch ganz am Anfang. Vor allem ist es immens teuer. Man kann nicht erwarten, dass Apple mal eben gratis in iMessage einbaut, worin andere Firmen zehn Jahre und Milliarden an Dollar investiert haben.
Es ist auch aus Sicht der Anwender eine komplexe Technologie. Wer sich nicht intensiv damit beschäftigt, wird kaum verstehen, warum die KI mal geniale und mal törichte Antworten gibt. Apple möchte die Dinge einfach und durchschaubar halten. Sie müssen sich auf jene Anwendungen konzentrieren, die einfach, zuverlässig und nützlich sind. Von dort arbeitet man sich vorwärts.
Es herrscht große Aufregung im Web über die Nachricht, Apple würde angeblich die KI-Technik von Google lizenzieren. Ausgerechnet Google! Aber was bedeutet das eigentlich?
KI ist als Begriff reichlich nebulös und lädt zu mannigfaltigen Missverständnissen ein. Deswegen ist es verblüffend, dass der zugrunde liegende Bloomberg-Artikel nicht genauer nennt, was überhaupt damit gemeint ist. Welche konkrete Aufgabe soll gelöst werden? Was bekommt der Anwender zu sehen? Und was läuft lediglich hinter den Kulissen? Weiterlesen »
Siri 2.0
Nehmen wir Siri als offensichtliches Beispiel. Soll Siri in Zukunft jede mögliche Frage beantworten können, ähnlich zu ChatGPT? Das wäre natürlich gut. Aber was genau würden wir von Siri halten, wenn es uns auf eine komplexe Frage eine ebenso komplexe Antwort geben würde? Selbst kurze Antworten von ChatGPT umfassen oft eine ganze DIN-A-4 Seite. So etwas macht für eine Sprachassistenten überhaupt keinen Sinn. Siri ist dazu da, sehr knappe Informationen zu geben. Siri soll vor allem die Funktionen des iPhones und dessen Apps leicht zugänglich zu machen. Es ist ein Assistent für Funktionen. Was hat das mit Google zu tun?
Die neuen KI-Systeme sind verblüffend gut darin, die Anfragen des Anwenders zu verstehen. Derzeit ist das eine Schwäche von Siri. Geht es also lediglich um irgendeinen Schnickschnack hinter den Kulissen, sodass die Kommandos an Siri besser verstanden werden? Dann wäre es nur eine sekundäre Komponente und all die Aufregung nicht wert.
Aktuelle Daten
Bleiben wir noch etwas bei Siri. Von Siri erwarten wir aktuelle Informationen, ähnlich einer Suchmaschine. Für ganz bestimmte Bereiche lizenziert Apple schon heute die dazu passenden Dienste, beispielsweise Sportergebnisse, Wetter oder Kino. Während Siri nur etwa alle 14 Tage aktualisiert wird, verwendet Apple Live-Datenbanken von Drittanbietern für spezielle Fragen.
Vergleichen wir das mit den modernen KI-Systemen. Sie zu trainieren benötigt jeweils drei bis sechs Monate. ChatGPT basiert hauptsächlich auf Daten, die älter sind als ein Jahr, weil noch Zeit benötigt wird für ein verfeinertes Training der Grundintelligenz. Man sieht daran: Ein solches System, so schlau es auch sein mag, ist zu langsam für Siri.
Geht es also bei der Lizenz einfach um die aktuellen Daten? Google hat vor ein paar Wochen eine interessante Technologie vorgestellt, mit der man die schwerfälligen KI-Daten aktuell halten kann, ohne sie komplett neu zu berechnen. Geht es vielleicht nur um diese Komponente?
Apps, Apps, Apps
Eine sehr interessante Frage besteht darin, wo uns die Intelligenz überhaupt begegnet. Natürlich könnte Apple eine Chat-App programmieren. Doch der eigentliche Clou besteht darin, diese Intelligenz innerhalb von Apps zu verwenden. Nicht nur, weil sie uns dort bei unseren konkreten Aufgaben helfen kann. Sondern vor allem, weil die Entwickler sehr komplexe Aufgaben realisieren können, die den Anwender ansonsten überfordern würden. Es ist nämlich gar nicht so einfach, einer KI mitzuteilen, was man möchte.
Apple wird sicherlich APIs (Programmierwerkzeuge) zur Verfügung stellen, mit denen die Entwickler gut arbeiten können. Andererseits ist es aber auch nicht zwingend erforderlich. Denn letztlich ist es eine triviale Kommunikation mit einem Server. Man kann heute schon eine Textverarbeitung programmieren, die den jeweils aktuellen Text zu einer KI schickt, um ihn auf Fehler zu untersuchen. Der Entwickler benötigt Apple nicht dafür. Er kann selbst entscheiden, welchen der verschiedenen Anbieter er benutzt.
Man kann sich das leicht klarmachen mit Apps, die sowohl unter iOS als auch unter Android, macOS und Windows funktionieren sollen. Der Entwickler entscheidet sich für einen KI-Anbieter und schickt seine Anfragen dorthin. Es ist nicht abhängig von Apple.
Was bedeutet es dann überhaupt noch, wenn es heißt, Apple lizenziert die künstliche Intelligenz von Google? Was sich innerhalb der Apps abspielt, bestimmt nicht Apple. Sondern der Entwickler.
Money, Money, Money
Früher hat Apple den Entwicklern bestimmte Werkzeuge kostenlos überlassen, die eigentlich gutes Geld wert waren. Beispielsweise Datenbanken auf Apples Servern: Viele Apps benutzen im Hintergrund solche Datenbanken, um einen Highscore oder andere Daten des Anwenders zu speichern. Auch die Synchronisierung verschiedener Geräte basiert oft auf diesen kostenlosen Datenbanken. Kostenlos sind sie natürlich nur deswegen, weil Apple von allen Umsätzen eine gute Provision einbehält.
Es wäre durchaus denkbar, dass Apple den Entwicklern erneut ein verlockendes Angebot macht. Künstliche Intelligenz wie ChatGPT oder Gemini ist sehr teuer. Es könnte sein, dass Apple seine KI kostenlos abgibt oder zumindest ein großzügiges Freikontingent einräumt, vorausgesetzt, Apple wäre per AppStore wieder bei den Umsätzen beteiligt.
Wahrscheinlicher ist jedoch, dass die ganze Herrlichkeit etwas kosten wird; und dann liegt es am Anwender (oder am Entwickler), wie er sich entscheidet. Dass es plötzlich eine »Apple-KI« gibt, die sich ungefragt in alles einmischt und der niemand entkommt, ist aus finanziellen Gründen unwahrscheinlich; abgesehen von trivialen Funktionen.
Ich weiß, dass ich nichts weiß
Dieses weise Zitat beschreibt recht gut, was man über den angeblichen Deal zwischen Apple und Google (oder sonstwem) weiß. Betrifft es vielleicht nur Server-Kapazität? Betrifft es nur die »untrainierte« Grund-Intelligenz, die dann von Apple weiter verfeinert wird? Da könnte man in der Tat zusammenarbeiten. Betrifft es aktuelle Daten?
Es ist doch recht verblüffend, dass in den Gerüchten nichts darüber zu erfahren ist. Dennoch findet man in den amerikanischen Foren viel Aufregung, dass Apple jetzt abhängig wäre von der Google-Krake. Wenn man genauer nachfragt, gibt es darauf aber keinen Hinweis.
Nächste Live-Sendung: Sonntag, 07. April um 19:00 Uhr
Sie sind neu hier? Herzlich willkommen! Unsere Live-Sendung findet normalerweise am Sonntag um 19 Uhr statt, aber natürlich gibt's auch mal Verschiebungen oder Sondersendungen. Unten sehen Sie die demnächst geplanten Sendungen.
Tipp: Abonnieren Sie unseren Kalender, um automatisch immer die aktuellen Termine in Ihrem Kalender angezeigt zu bekommen.
Falls Sie eine Live-Sendung verpasst haben, finden Sie die Aufzeichnung meist nach einem Tag in der rechten Spalte unter dem Titel "ReLive". Die ReLive-Sendungen enthalten zusätzlich zu den einzelnen Beiträgen immer noch einige kleinere Themen oder Schabernack.
Künstliche Intelligenz? Gähn. Lasst uns bloß damit in Ruhe. — So oder ähnlich reagieren viele genervte Anwender, die den Hype um KI nicht mehr hören können. Zu lange und zu oft wurde versprochen, dass Siri damit endlich verstehen würde, was wir meinen. Die tatsächlich erbrachten Ergebnisse haben nie viel getaugt. Doch plötzlich gelang ein immenser Durchbruch. Man hat entdeckt, wie es funktioniert. Der Aufwand dafür ist gigantisch, aber die Ergebnisse sind absolut verblüffend. Es ist längst kein Geheimnis mehr: Dies ist die neue Epoche nach der Smartphone-Revolution. Vermutlich sogar größer. In der Sendung möchten wir alle ins Boot holen, die noch skeptisch sind und die nicht wissen, ob sie sich wirklich für das neue Zeug interessieren sollen. Kann nicht einfach alles so bleiben, wie es war? Direkt zum Film »
Apple ist berühmt dafür, seine Hardware exakt auf die Software abzustimmen, und umgekehrt. Das war Apple derart wichtig, dass man sogar die Mühe auf sich nahm, komplett eigene Prozessoren zu entwickeln. Bisher waren die Ziele klar: eine möglichst hohe Performance bei gleichzeitig niedrigem Energieverbrauch und einem besonderen Augenmerk auf eine flüssige Grafik. Mit dem iPhoneX kam zum ersten Mal die Neural Engine hinzu, von der damals noch kaum jemand ahnte, wie wichtig sie werden würde. In den kommenden Jahren (und sehr viel schneller, als wir alle glauben!) werden sich die Anforderungen an Apples Prozessoren dramatisch erhöhen. Künstliche Intelligenz braucht eine brachiale Prozessorkraft. Was wird Apple an seinen Prozessoren vermutlich ändern, um das zu erreichen? Direkt zum Film »
Apple hat stets fleißig daran gearbeitet, sich nicht allein auf den Erfolg des iPhones zu verlassen. Das iPad, die Apple Watch und die Vision Pro sind alles beachtliche und (bis auf die Brille) sehr erfolgreiche Versuche, die Plattform der Zukunft zu entwickeln, bevor die Konkurrenz es schafft. Doch jetzt ist es klar: Die nächste riesige Welle ist Künstliche Intelligenz, und Apple liegt hinten.
Normalerweise waren wir es gewohnt, dass Apple die neuen Plattformen definiert; andere folgten dann in Apples Fußstapfen. Apple rannte von Sieg zu Sieg – sogar die uneinnehmbare Burg von Intels Prozessoren stürmte man mühelos. Doch wenn heute von den atemberaubend leistungsfähigen Prozessoren der Zukunft die Rede ist, meint man nicht Apple, sondern Nvidia. Weiterlesen »
Die neue KI-Plattform
Stellen Sie sich eine riesige Konzerthalle vor, so groß wie ein Stadion. Es tritt aber keine berühmte Band auf, sondern die gesamte Industrie staunt über die Vorstellung eines neuen Prozessors. Im Publikum sitzen keine Teenager und keine hippen YouTuber, sondern die Firmenchefs der größten amerikanischen Unternehmen. Auf der Bühne: Der CEO von Nvidia. Er zeigt einen Prozessor, dessen Entwicklung er sich 10 Milliarden Dollar kosten ließ, und der speziell für die Erzeugung von KI-Modellen gedacht ist.
Anschließend beeilen sich die Chefs der anderen Firmen, artig formulierte Pressemitteilungen zu lancieren. Sie wollen sich dadurch nicht nur bei Nvidia einschmeicheln, weil sie zu den ersten Kunden gehören wollen. Sondern sie wollen der Öffentlichkeit mitteilen, dass sie nicht abseits stehen, sondern dass sie auserwählt und eingeladen wurden, um die neue Zukunft mitzugestalten. Abseits steht: Apple.
Nvidia kann es sich leisten, auf der Liste der Gratulanten selbst Schwergewichte wie Microsoft an die sechste Stelle zu schieben:
Sundar Pichai, CEO von Alphabet
Google Andy Jassy, Präsident und CEO von Amazon
Michael Dell, Gründer und CEO von Dell Technologies
Demis Hassabis, Mitbegründer und CEO von Google DeepMind
Mark Zuckerberg, Gründer und CEO von Meta
Satya Nadella, Vorstandsvorsitzender und CEO von Microsoft
Sam Altman, CEO von OpenAI
Larry Ellison, Vorsitzender und CTO von Oracle
Elon Musk, CEO von Tesla und xAI
Die Revolution
Keineswegs handelt es sich um eine theoretische und esoterische Zukunftstechnologie, die sich vage am Horizont abzeichnet, und über die man sich erst in zehn Jahren konkrete Gedanken machen muss. Sondern wir befinden uns mitten in der Revolution. Neu und ungewohnt ist für uns, mit welchem enormen Tempo sich der Wandel vollzieht.
Der Chip von Nvidia ist für den Einsatz in Rechenzentren gedacht, um die künstlichen Gehirne der Zukunft zu erzeugen. Diese Modelle werden aus 1 Trillion Parametern (also Reglern und Drehknöpfen) bestehen, die eine unsichtbare Hand ganz exakt einstellen muss, damit die Maschine am Ende intelligente Antworten geben kann.
In Zukunft sind Modelle in Reichweite, die aus 10 Trillionen Parametern bestehen. Ein solches Modell wird sehr wahrscheinlich in der Lage sein, ein Abschlussexamen in Chemie, Physik, Mathematik, Biologie, Geschichte oder anderen faktenbasierten Fächern zu bestehen.
Natürlich ist der Chip von Nvidia nicht für ein MacBook oder iPhone geeignet. Er wird vermutlich zwischen 30.000 und 40.000 Dollar kosten. Nun könnte man vorschnell urteilen, dadurch wäre er nicht relevant. Aber genau das ist die Frage: Was ist relevant? — Und man könnte ebenso vorschnell davon ausgehen, dass Apple sich selbstverständlich diese Chips kaufen kann. Tatsache ist jedoch, dass diese superschnellen Chips, die sich für solche KI-Operationen eignen, eine knappe Ware sind. Die Firmenchefs müssen praktisch darum betteln, sie zu bekommen.
Apples Strategie
In den letzten Tagen hat man gelesen, Apple stünde angeblich in Verhandlungen mit Google, um deren KI zu lizensieren. Das ist durchaus möglich. Aber vielleicht geht es nicht nur darum, wer ein funktionierendes KI-Modell anbieten kann. Sondern vielleicht verfügt Apple im Moment nicht über die Rechenleistung, um eigene Modelle schnell genug berechnen zu können. Das sind zwar keine unlösbaren Probleme, aber bis zur nächsten WWDC muss Apple wohl nehmen, was vorhanden ist. Apple hat plötzlich nicht die Zügel in der Hand.
Natürlich wird Tim Cook alles daran setzen, dies zu ändern. Es wird spannend sein, die Entwicklung zu beobachten.
Microsofts damaliger Missbrauch ihrer verschiedenen Monopole, konnte nur durch drastische Maßnahmen der amerikanischen Behörden, aber auch seitens der EU, gebrochen werden. Speziell in der EU wurden damals drastische Strafen ausgesprochen, erstmals in Milliardenhöhe. Nun wurde auch gegen Apple eine solche Strafe verhängt. Ist Apple jetzt genauso schlecht wie es Microsoft damals war? Es geht dabei um die Öffnung des AppStores, zunächst nur für eine ganz bestimmte Kategorie von Anwendungen. In der Sendung legen wir die Argumente der EU Kommission dar, und überlegen uns, wie nachvollziehbar uns diese erscheinen. Anschließend kommt natürlich auch Apple zu Wort. Wurde Apple zu Unrecht verurteilt? Oder hat Apple den Bogen überspannt? Direkt zum Film »
In den nächsten Wochen wird sich bei Apple angeblich sehr viel tun. Viele wichtige Upgrades stehen anscheinend in den Startlöchern. Das berichten übereinstimmend mehrere Quellen, die schon früher korrekte Vorhersagen liefern konnten. Vieles ergibt sich ohnehin von selbst. Die iPads sind schon lange überfällig; und das Frühjahr ist traditionell die heiße Zeit für diese Modellreihe. Es scheint so, als würde Apple die iPads neu ordnen: Der Unterschied zwischen iPad Air und iPad Pro könnte noch größer werden als zuvor. In der Sendung fassen wir zusammen, was derzeit für Gerichte im Umlauf sind, und wägen ab, wie wahrscheinlich sie eintreffen werden. Dabei geht es natürlich nicht nur um die iPads, sondern auch um andere Produkte, beispielsweise Zubehör. Direkt zum Film »
Das MacBook Air scheint derzeit eine perfekte Kombination zu bieten aus Preis, Leistung, Akkulaufzeit und Design. Die Frage ist gar nicht so sehr, ob sich die anvisierten Käufer ein MacBook kaufen; sondern eher, wann der richtige Zeitpunkt dafür gekommen ist. Mit den M-Prozessoren macht man ohnehin nichts falsch, aber man möchte sein Geld natürlich zum besten Zeitpunkt ausgeben, wenn alle zu erwartenden Neuheiten tatsächlich eingebaut wurden. Nun ist also der M3 auch in den MacBook Air gelandet: Der fortschrittlichste Prozessor, den Apple bisher konstruiert hat. Ist das der perfekte Zeitpunkt für einen Kauf? In der Sendung fassen wir die Neuheiten zusammen, und diskutieren darüber, wie groß die Verbesserungen in der Praxis tatsächlich ausfallen. Direkt zum Film »
Die Frage klingt töricht, weil Computer so viele unterschiedliche Dinge für uns tun können, dass man sie in einer kurzen Antwort nicht alle nennen kann. Und trotzdem: Während der verschiedenen Revolutionen, in deren Mittelpunkt der Computer bislang stand, änderten sich diese Dinge.
Das Bild oben wurde mit KI auf einem Mac erzeugt. Der Befehl lautete: young man, Apple Computer, handsome, casual, natural, realistic, photographic, looking at computer, 35mm, very high detail, focus on computer.
Es begann mit Datenverarbeitung. Das ist zwar heute noch das Fundament aller Anwendungen. Aber niemand würde heutzutage sein Smartphone aus der Tasche holen und sagen: "Ich verarbeite jetzt Daten." Weiterlesen »
Die Revolutionen folgten einem ganz bestimmten Pfad. Sie eroberten sich Medium um Medium: Zuerst waren es Zahlen, dann Texte, dann Grafiken, dann Töne und zum Schluss Video. Dann übernahm das Internet. Für die meisten Anwender ist das aktuelle Medium die Kommunikation, die allerdings nicht so einfach zu fassen ist.
Als Erwachsene benutzen wir Computer, um damit unsere Arbeit zu erledigen. Aber in der überwältigenden Mehrzahl der Fälle handelt es sich schlicht um Kommunikation.
Dieser Grund wird sich in Kürze erneut wandeln. Wir werden Computer benutzen, damit sie etwas für uns tun, wovon wir selbst zu wenig verstehen oder wozu wir selbst zu wenig Zeit haben. Textverarbeitung wird nicht mehr bedeuten, dass wir Texte eingeben und editieren. Bildbearbeitung wird nicht mehr bedeuten, dass wir mühsam die Kniffe von Photoshop erlernen oder dass wir mühsam eine Fotografie erstellen, nur um herauszufinden, dass sie nicht genau das zeigt, was wir zeigen möchten.
Sondern wir werden dem Computer mitteilen, welche Texte und Bilder wir gerade benötigen, und er wird diese für uns erzeugen. Er wird es auf eine Weise tun, die weit über unsere Fähigkeiten hinausgeht. Unsere Aufgabe besteht darin, möglichst genau zu beschreiben, was wir wünschen, um anschließend die Ergebnisse zu kritisieren und eine bessere Version zu verlangen.
Das Bild oben wurde mit KI auf einem Mac erzeugt. Der Befehl lautete wie oben, nur wurde das Wort "man" durch "woman" ersetzt.
Apple gelang bisher der Sprung von einer Revolution zur nächsten. Von Texten zu Desktop Publishing, zu Musik, zu Video und schließlich zur mobilen Revolution. Doch der nächste Umbruch ist ganz anderer Art. Es ist keineswegs garantiert, dass Apple hierbei eine Rolle spielen wird. (Es ist andererseits aber durchaus möglich.) Bisher konnte Apple immer von seiner Expertise bei Hardware und User-Interfaces profitieren. Die neue Revolution verlangt aber etwas ganz anderes anderes.
Das Bild oben wurde mit KI auf einem Mac erzeugt. Der Befehl lautete: "2 teenager 16 years playing with their smartphones, handsome, casual, blonde hair, natural, realistic, photographic, looking at camera, 35mm, very high detail, focus on computer, pores, natural skin"
Ich möchte ein Beispiel geben. Bei Mac-TV verwenden wir eine kleine selbstgeschriebene App, um uns während der Live-Sendung zu Wort zu melden, die Redezeiten einzuhalten und so weiter. Jeder von uns hat neben sich ein iPhone liegen, welches durch sein Mikrofon und ein paar Buttons diese Funktion ermöglicht: Es hört mit, und es weiß, welcher Teilnehmer als Nächstes an der Reihe ist.
Nun kommt der Punkt. Mit einem kleinen Schieberegler kann ich die Dauer eines Themas vorgeben. Die anderen Teilnehmer sehen dadurch, wie viel Zeit noch übrig ist. Durch die hellen Scheinwerfer im Studio ist es für mich manchmal schwierig zu erkennen, auf welchen Wert der Regler eingestellt ist. Deswegen wünsche ich mir, wann immer ich den Regler verschiebe, eine riesig große Anzeige im oberen Bereich der App. Ich möchte, dass es so aussieht, als wenn man unter macOS die Bildschirmhelligkeit einstellt: ein helles halbtransparentes Viereck, mit einer großen Zahl. Es soll sich einblenden, sobald ich den Regler betätige, dann soll es 3 Sekunden stehen bleiben und dann soll es innerhalb 1 Sekunde sanft ausblenden.
Dies zu programmieren habe ich einer Künstlichen Intelligenz zur Aufgabe gestellt. Ich habe den bereits vorhandenen Code übergeben und dann einfach meine Wünsche in deutscher Sprache beschreiben. Die KI hat den Code ergänzt und wieder ausgegeben. Den neuen Code habe ich übernommen – und voila! Es hat sofort funktioniert.
Das ist absolut haarsträubend. Denn die künstliche Intelligenz musste dafür mein durchaus kompliziertes (und keineswegs alltägliches) Anliegen verstehen. Außerdem musste es den Sinn meines von Hand geschriebenen Codes durchschauen und genau erkennen, an welcher Stelle welcher Code eingefügt werden muss, damit alles zusammenpasst. Anschließend konnte ich noch ein paar Änderungswünsche nachschieben, um das Design anzupassen. Schritt für Schritt hat die KI meine Vorstellungen umgesetzt.
Erneut: haarsträubend. Wenn dies erst der Anfang ist, dann ist es der Anfang einer gewaltigen Revolution.
Ich habe die künstliche Intelligenz von Google benutzt (Gemini 1.5). Diese gehört zu den besten, die derzeit verfügbar sind, und es ist komplett kostenlos. Auch das ist haarsträubend. Es ist jedoch zu erwarten, dass solche Dienste bald teuer verkauft werden.
Unsere Smartphones werden wir weiterhin zur Kommunikation und zur Unterhaltung benutzen. Aber das wird uns schon bald nicht weiter bemerkenswert vorkommen. Dieses Feld ist sozusagen abgegrast. Was in Zukunft die Spreu vom Weizen trennen wird, sind solche Assistenzfunktionen. Der Computer soll etwas für uns erledigen, von dem wir nicht wissen, wie es funktioniert; von dem wir aber wissen, wie das Ergebnis aussieht. Computer, die dies nicht können, werden vom Markt verschwinden. Sie werden genauso verschwinden, wie normale Handys vom Markt verschwunden sind. Wir telefonieren weiterhin, aber das ist eine sekundäre Funktion von WhatsApp oder irgendeiner anderen App.
Apple ist in diesem neuen Wettrennen noch nicht sichtbar. Und trotzdem: Diesen Text habe ich komplett durch Apples enorm gute Diktierfunktion diktiert. Die Geschwindigkeit, mit der ich den Text erzeugen konnte, ist völlig unglaublich. Aus Stunden wurden Minuten. Am Ende habe ich den Text einer künstlichen Intelligenz vorgelegt und um Korrekturen gebeten. Korrigiert wurden Rechtschreibung, Satzbau und Dramatik. Das Ergebnis mag jeder selbst beurteilen.
Kann das wirklich wahr sein? Angeblich hat Apple eines seiner ehrgeizigsten Projekte eingestellt. Es bestand darin, ein autonomes, selbstfahrendes Auto zu entwickeln. Das hat Tim Cook sogar bestätigt. Ungewiss ist, in welchen Etappen das Ziel erreicht werden sollte. Aber damit ist nun offenbar Schluss. In der Sendung fassen wir die Meilensteine der Entwicklung zusammen, die durch zahlreiche Personalentscheidungen illustriert werden. Anschließend diskutieren wir, woran das Projekt gescheitert sein könnte. Denn andere Startups haben es durchaus geschafft, eine Automobil-Produktion in wenigen Jahren aus dem Boden zu stampfen. Gibt es womöglich die Chance, dass das Projekt später wieder aufgenommen wird? Direkt zum Film »
Technologisch liegt die Vision Pro weit vorne innerhalb des Consumer-Segments. Andere Brillen, etwa die Quest-Brillen von Meta, sind technisch nicht so ausgefeilt. Aber dadurch wird keineswegs entschieden, welches das bessere Produkt ist. Die Vision Pro ist siebenmal teurer als die Quest 3; aber ist sie auch siebenmal besser? Oder auch nur doppelt so gut? Das ist schwer zu sagen. Auch bei den angepeilten Anwendungen ist noch nicht entschieden, was davon erfolgreich sein wird. Kann Apple die Idee einer futuristischen Computer-Plattform etablieren? Oder bleibt es am Ende bei Kino und Spielen? Obwohl die Vision Pro technisch so eindrucksvoll ist, bleiben diese Fragen kurioserweise offen. Es ist keineswegs klar, welche Strategie gewinnen wird. In der Sendung untersuchen wir die unterschiedlichen Ansätze von Meta und Apple. Direkt zum Film »
Das Apple-Car war ein »Moonshot«-Projekt: Ein großes und fernes Ziel mit ungewissen Chancen. Heute scheint es so, als wäre es gescheitert und beendet, aber genau weiß man es nicht. Wenn es gescheitert ist, wäre das kein Grund für Spott. Sondern im Gegenteil: Wer nie scheitert, der setzt sich seine Ziele nicht hoch genug. Als Technik-Fans möchten wir einen Blick werfen auf die großen Moonshot-Projekte von anderen Firmen. Google unterhält eine offizielle Abteilung, die sich solchen Projekten widmet und sie finanziert. In der Sendung gehen wir in rascher Folge durch eine Vielzahl von erstaunlichen Unternehmungen, die alle das Ziel haben, große Fortschritte für die Menschen zu erreichen (und dabei irgendwann auch Geld zu verdienen). Direkt zum Film »
Schon länger gibt es Gerüchte, Apple arbeite an einem Ring, den man sich an den Finger stecken solle. Apple gewann sogar ein Patent, bei dem es darum ging, die Fläche eines Rings zu erweitern, um ihn als Eingabe für diverse Anwendungen zu verwenden. Genannt wurden dabei auch VR-Brillen, aber der Nutzen könnte deutlich vielfältiger sein. Man denke an die Apple Watch und ihre biometrischen Sensoren, die viele Informationen zu Gesundheit und zu Fitness sammeln. So ein kleiner Datensammler könnte viele Aufgaben übernehmen. Verdächtig ist auch, dass bereits erste Firmen solche elektronischen Ringe auf den Markt bringen. Ist das ein neuer Trend? Basti führt uns in der Sendung durch eine Reihe von Überlegungen, ob und warum Apple so ein Produkt entwickeln könnte. Direkt zum Film »
Die Fähigkeiten von Künstlicher Intelligenz verbessern sich in dramatischem Tempo. Kaum ein Monat vergeht ohne neue Durchbrüche. Natürlich richten sich alle Augen auf Apple, denn Apple hat schon seit langer Zeit erkannt, wie wichtig die Technologie werden wird. Doch in der Öffentlichkeit glänzen derzeit andere Firmen. Wie schnell wird es Apple gelingen, wesentliche KI-Funktionen in ihre Software einzubauen? Und welche könnten das sein? — In der Sendung zeigen wir, welche Fortschritte derzeit von anderen Firmen erzielt werden. Das gibt uns eine Vorstellung, wie hoch die Messlatte liegt und was man überhaupt erwarten kann. Außerdem berichten wir von kleineren Projekten bei Apple, aber auch von einer erstaunlichen Apple-Technologie namens DockKit. Direkt zum Film »
Was kam bei Apple-Anwendern auf den Tisch? Zuerst nur Macs, dann MacBooks, später auch Newtons, iPods, iPhones, iPads und mehr. Ein Blick auf unsere Schreibtische ist wie eine kleine Zeitreise. In der Sendung betrachten wir Fotos von Schreibtischen aus vier Jahrzehnten, von 1994 bis 2024. Das Interessante daran ist einerseits, wie viel sich geändert hat; und andererseits, wie viel gleich (oder ähnlich) geblieben ist. Manchmal sieht man die feinen Fortschritte im Detail — und manchmal sind es riesige Sprünge nach vorn. Wir erklären, welche Technologie in den Geräten steckte und woran man die großen Innovationen erkennen kann. Es ist eine nette kleine Zeitreise. Direkt zum Film »
Nachdem wir neulich recht komplexe Funktionen zur Suche gezeigt haben, wenden wir uns in dieser Folge wieder den alltäglichen Anwendungen zu. Auf dem Mac ist nichts so alltäglich wie Spotlight: Suchbegriff eingeben, Return, fertig. Aber in den Jahren seit der ersten Einführung hat Apple immer neue Fähigkeiten eingeführt. Spotlight kann deutlich mehr, als die meisten Anwender wissen. In typischer Apple-Manier werden die fortgeschrittenen Funktionen gut versteckt. Wir zeigen daher, was die Spotlight-Suche an geheimen Kommandos bietet. Außerdem betrachten wir die damit verbundene Suche im Finder, die weitere Möglichkeiten zur Filterung bietet. Damit kann man Dateien und Inhalte sehr schnell finden. Es macht sogar Spaß! Direkt zum Film »
Die EU hat sehr umfangreiche und drastische Änderungen verlangt und durchgesetzt, die einige Kernbereiche von Apple betreffen. Der AppStore, immerhin der wertvollste Software-Marktplatz der Welt, muss für europäische Kunden völlig umgekrempelt werden. Apple muss weitere Stores von anderen Anbietern zulassen und muss alternative Zahlungsmethoden ermöglichen. Wir erläutern, was das für die Anwender bedeutet und ob es für Entwickler in der Praxis zu besseren Konditionen führen wird. Außerdem muss Apple erstmals Browser-Engines von Dritten zulassen. Dabei geht es aber nicht um die Browser als »App«, sondern um die Ausführung von Code. Apple hatte sich seit der Rückkehr von Steve Jobs im Jahr 1997 vehement gegen solche Versuche gewehrt. Was ist dabei so wichtig? Direkt zum Film »
Seit einigen Monaten ist es deutlich zu spüren: Die Menge an Werbung nimmt zu, speziell bei Videoformaten. YouTube scheint mehr Werbeclips vor den Videos abzuspielen, aber auch die Unterbrechungen werden häufiger. Das ist nicht nur ein persönlicher Eindruck, sondern wurde von YouTube gegenüber seinen Partnern offiziell angekündigt und in die Tat umgesetzt. Aber auch andere Portale, darunter Apple TV+, machen kräftig Werbung — in diesem Fall zwar nicht für Käse und Strümpfe, aber doch recht penetrant für die eigenen Inhalte. Offenbar hat man sich ehrgeizige Ziele gesetzt zur Gewinnung neuer Abonnenten. Ob das auf diese Weise klappt? Auch über Amazon und Microsoft beklagen sich zahlreiche Kunden wegen allzu aufdringlicher Werbung. Direkt zum Film »
Zwei Exemplare der Vision Pro hatten wir live im Studio. In einer Marathon-Sendung behandelten wir ausführlich, ohne Schnitte und ohne Tricks, was die Apple-Brille kann. Im ersten Teil ging es um die Hardware. Wir betrachteten das Design und die einzelnen Bestandteile der Brille. Sehr genau gehen wir auf das Gewicht und den Tragekomfort ein. Wir erläutern die zwei unterschiedlichen Kopfbänder und demonstrieren, warum sie einen unterschiedlichen Druck auf das Gesicht erzeugen. Außerdem begutachten wir das Travel-Case von Apple, mit dem die Brille auf Reisen optimal geschützt werden soll. — Vision Pro wurde uns zur Verfügung gestellt von zwei Technologiefirmen, RomeisIE und Cretec, die damit neuartige Lösungen für die Industrie entwickeln. Direkt zum Film »
Im zweiten Teil unseres großen Live-Tests ging es um die Software. Zuerst zeigen wir grundlegende Dinge, die man bei der Benutzung der Brille zuerst verstehen und erlernen muss. Dazu gehören auch die Handgesten und die Steuerung mit den Augen. Wie gut funktioniert das? Tatsächlich braucht es Übung. Man muss etwas umdenken. Knifflig sind vor allem kleinere Buttons, wie sie auf Webseiten üblich sind. Anschließend zeigen wir typische Aufgaben, wie z.B. die Auswahl von Dateien, das Einfügen von Grafiken in ein Dokument per Drag & Drop, und die Selektion von Text. Wie gut funktioniert das Handling von mehreren Fenstern? Das gloriose Finale des Beitrags besteht aus dem Erzeugen einer »Persona« (live!) und einem anschließenden FaceTime-Anruf. — Vision Pro wurde uns zur Verfügung gestellt von zwei Technologiefirmen, RomeisIE und Cretec, die damit neuartige Lösungen für die Industrie entwickeln. Direkt zum Film »
Den dritten und letzten Teil unserer Live-Vorführung beginnen wir mit einer unglaublichen Demo, die man dummerweise nur in 3D richtig einschätzen kann: Keynote! Es gibt einen »Übungsmodus«, bei dem man sich in einen Konferenzraum oder in das große Steve-Jobs-Theater beamen kann, um seine Präsentation zu üben. Das ist wirklich enorm eindrucksvoll. Danach zeigen wir technische Geräte, die plötzlich mitten im Raum stehen — und zwar so echt und realistisch, als wären sie tatsächlich vorhanden. Man muss es gesehen haben, um es zu glauben. Nach diesen (und weiteren) 3D-Demos fassen wir die Stärken und Schwächen der Vision Pro zusammen, um den Zuschauern möglichst klare und konkrete Anhaltspunkte zu geben. — Vision Pro wurde uns zur Verfügung gestellt von zwei Technologiefirmen, RomeisIE und Cretec, die damit neuartige Lösungen für die Industrie entwickeln. Direkt zum Film »
Als Auftakt für unseren großen Live-Test durften wir ein Interview führen mit den Gründern und Chefs zweier Technologiefirmen, die sich extra die Mühe gemacht haben, die Vision Pro aus den USA zu besorgen. Daran kann man ablesen, wie bedeutsam die Brille für bestimmte Branchen ist. Im Studio waren Christian Romeis (RomeisIE GmbH) und Alexander Trebing (CRETEC GmbH). Sie erläuterten uns, welche Anwendungen sie für die Brille entwickeln werden. Außerdem erzählten sie von ihrem Kauf der Brille im berühmten Apple Store »Fifth Avenue«. Dort kam ihnen plötzlich Tim Cook entgegen und begrüßte sie per Handschlag! Auch vom deutschen Zoll gibt es eine Anekdote. Mehr wird hier nicht verraten... Direkt zum Film »
Es ist soweit! Die Brille ist offiziell verfügbar und die ersten Testberichte von US-Magazinen wurden veröffentlicht. Unser eigener Test folgt kommende Woche. Eins ist sicher: Apples PR-Maschine läuft auf Hochtouren! Interessant ist dabei vor allem, ob endlich die vielen Fragen beantwortet wurden, die sich seit den ersten Demos auf der WWDC stellten. Deswegen haben wir alle Testberichte der bekannten Magazine usw. nach neuen Fakten durchsucht. In der Sendung tragen wir zusammen, was uns an Neuheiten aufgefallen ist. Wir überlegen auch, ob dadurch etwas klarer wird, welchen Zweck die Brille erfüllen soll. Vielleicht kristallisiert sich das langsam heraus. In einem separaten Beitrag fassen wir dann die Meinungen und Bewertungen zusammen. Direkt zum Film »
Künstliche Intelligenz? Gähn. Lasst uns bloß damit in Ruhe. — So oder ähnlich reagieren viele genervte Anwender, die den Hype um KI nicht mehr hören können. Zu lange und zu oft wurde versprochen, dass Siri damit endlich verstehen würde, was wir meinen. Die tatsächlich erbrachten Ergebnisse haben nie viel getaugt. Doch plötzlich gelang ein immenser Durchbruch. Man hat entdeckt, wie es funktioniert. Der Aufwand dafür ist gigantisch, aber die Ergebnisse sind absolut verblüffend. Es ist längst kein Geheimnis mehr: Dies ist die neue Epoche nach der Smartphone-Revolution. Vermutlich sogar größer. In der Sendung möchten wir alle ins Boot holen, die noch skeptisch sind und die nicht wissen, ob sie sich wirklich für das neue Zeug interessieren sollen. Kann nicht einfach alles so bleiben, wie es war?
Den dritten und letzten Teil unserer Live-Vorführung beginnen wir mit einer unglaublichen Demo, die man dummerweise nur in 3D richtig einschätzen kann: Keynote! Es gibt einen »Übungsmodus«, bei dem man sich in einen Konferenzraum oder in das große Steve-Jobs-Theater beamen kann, um seine Präsentation zu üben. Das ist wirklich enorm eindrucksvoll. Danach zeigen wir technische Geräte, die plötzlich mitten im Raum stehen — und zwar so echt und realistisch, als wären sie tatsächlich vorhanden. Man muss es gesehen haben, um es zu glauben. Nach diesen (und weiteren) 3D-Demos fassen wir die Stärken und Schwächen der Vision Pro zusammen, um den Zuschauern möglichst klare und konkrete Anhaltspunkte zu geben. — Vision Pro wurde uns zur Verfügung gestellt von zwei Technologiefirmen, RomeisIE und Cretec, die damit neuartige Lösungen für die Industrie entwickeln.
Live-Sendung fast jeden Sonntag um 19 Uhr mit zahlreichen Themen, Live-Chat und Votings. Login ab 18:50 Uhr, Start um 19 Uhr. Wiederholung der Beiträge im Archiv.