Lasst uns mal reden über... Aperture und Liquid Glass
Liquid Glass, speziell auf dem Mac, ist umstritten. Es ist nicht nur eine Frage des Designs, des Dekors. Es ist vor allem eine Frage der Funktionalität und der Organisation. Die Kritiker bemängeln zudem, dass Liquid Glass der (bisherige) Endpunkt einer steten Verschlechterung darstellt. In kleinen Schritten, so heißt es, sei Apple vom Pfad abgekommen. Um das zu illustrieren, wird auf frühere Versionen von OS X verwiesen, aber auch auf besonders ambitionierte Software von Apple. Ein besonders ambitioniertes Projekt war Aperture. Viele Elemente des User-Interfaces wurden dafür neu gestaltet. Es gilt für viele Anwender als ein Höhepunkt von Apples Software-Design. Wir zeigen viele Videos und Screenshots und überlegen, was wir aus heutiger Sicht daraus lernen können. (Spielzeit: 39 Minuten.)
Nächste Live-Sendung: Sonntag, 08. Februar um 19:00 Uhr
Sie sind neu hier? Herzlich willkommen! Unsere Live-Sendung findet normalerweise am Sonntag um 19 Uhr statt, aber natürlich gibt's auch mal Verschiebungen oder Sondersendungen. Unten sehen Sie die demnächst geplanten Sendungen.
Tipp: Abonnieren Sie unseren Kalender, um automatisch immer die aktuellen Termine in Ihrem Kalender angezeigt zu bekommen.
Falls Sie eine Live-Sendung verpasst haben, finden Sie die Aufzeichnung meist nach einem Tag in der rechten Spalte unter dem Titel "ReLive". Die ReLive-Sendungen enthalten zusätzlich zu den einzelnen Beiträgen immer noch einige kleinere Themen oder Schabernack.
Termine im Februar:
Sonntag, 08. Februar, 19:00 Uhr
Sonntag, 15. Februar, 19:00 Uhr
Samstag, 21. Februar, 19:00 Uhr (Achtung, am Samstag)
Die letzte Live-Sendung wird gerade geschnitten, aber hier gibt's vorab die ungeschnittene Fassung wie sie live ausgestrahlt wurde. Dies waren unsere Themen:
• Tim Cook – Sein Statement zu den Erschießungen in Minnesota • AirTag 2 – Was ist neu, was ist besser? • iWork ohne Abo – Ist das noch gut?
Die geschnittene Version erscheint meist nach ein oder zwei Tagen und ersetzt dann die ungeschnittene Version. Wer die ungeschnittene Version geladen hatte, kann die geschnittene Sendung kostenfrei laden. Direkt zum Film »
Diesmal widmen wir unsere Rundschau den MacBooks. Das nächste Jahr (vielleicht dauert es auch ein wenig länger) scheint recht umwälzende Neuheiten zu bieten. Es wird langsam Zeit für die nächste große Generation bei den MacBook Pro. Orakelt wird eine neue Display-Technologie, vielleicht sogar mit Touch-Funktion, und viele weitere Änderungen. Basti nennt alle Details. — Schon länger gibt es konkrete Hinweise auf ein besonders preisgünstiges MacBook mit A18-Prozessor. Es scheint nun kurz vor der Einführung zu stehen. Offenbar ist es deutlich unterhalb der Air-Modelle angesiedelt. Die Frage ist natürlich, welche Kompromisse man dabei eingehen muss. Direkt zum Film »
Nun also doch — aber vermutlich erst in einem späteren Schritt. Wenn die Gerüchte stimmen, soll Siri in zwei dramatischen Renovierungen völlig überarbeitet werden. Zunächst, noch in der ersten Jahreshälfte 2026, soll Siri den Anwender besser verstehen und Informationen aus verschiedenen lokalen Quellen verarbeiten können: Mail, iMessage und weitere. Damit löst Apple vor allem seine Versprechen aus dem Jahr 2024 ein. Weitaus wichtiger scheint die (angebliche) Entscheidung zu sein, Siri ein Chat-Interface zu verpassen, wie es alle anderen großen KI-Modelle bieten. Unklar ist, ob es dafür eine eigene App geben soll. Wir ordnen die Gerüchte ein und diskutieren, was sich daraus ableiten lässt. Direkt zum Film »
Die nächsten iPhone-Modelle könnten schrittweise eine geradezu magisch anmutende Technologie einführen: unsichtbare Kameras, die unterhalb des Displays angebracht werden. In einem späteren Beitrag werden wir dazu verschiedene Technologien vorstellen, die derzeit in den Laboren erforscht werden. Es gibt jedoch bereits Smartphones, die demonstrieren, was mit der heute verfügbaren Technologie möglich ist. Dadurch erfahren wir, worin überhaupt das Problem besteht. Basti hat Bilder und Videos gesammelt, mit denen man sehr gut erkennen kann, welche Hürden ein iPhone überspringen müsste, damit die Bildqualität akzeptabel wird. Vielleicht müssen sich die Anwender auch auf Kompromisse einstellen. Direkt zum Film »
Es scheint so, als würden nach und nach alle wichtigen Manager bei Apple entweder in den Ruhestand gehen, zu einer anderen Firma wechseln oder aufgrund anhaltenden Misserfolgs rausgeschmissen zu werden. Die Menge der Führungskräfte, die Apple in den letzten Monaten verloren hat, ist erstaunlich. Anstatt zu jammern, ergreifen wir die Gelegenheit und überlegen uns, was wir bei Apple ändern würden, wenn man uns das Ruder in die Hand gäbe. Das ist durchaus ernst gemeint: Die Anwender wissen schließlich sehr genau, was sie vermissen und was man besser machen könnten. Apple muss es dann nur noch umsetzen. Das wird ja wohl nicht zu viel verlangt sein. Direkt zum Film »
Man hat es ja schon länger in den Gerüchten gehört: Apple wird seine eigenen KI-Modelle erstmal zurückstellen und sich Hilfe bei einem der großen Anbieter holen. Die Wahl fiel auf Google — eine sehr gute Wahl. Google hat sich wacker nach vorne gekämpft und bietet nun ein starkes Portfolio an unterschiedlichen Modellen. Weil es unterschiedliche Modelle gibt, weiß man nicht, welches (oder welche) davon bei Apple zum Einsatz kommen und zu welchem Zweck. Speziell bei Siri ist das rätselhaft, denn es ist ja nicht damit getan, dass man es einfach durch eine KI-Engine ersetzt. Warum ist das überhaupt so knifflig? Wir sprechen über die Technologie von Siri und wie Google Gemini dort am besten hineinpassen könnte. Direkt zum Film »
Endlich kommt wieder Schwung in Apples Profi-Software! Genauer gesagt: in die Preisliste. Zwar gibt es (noch) die bisherigen Einzelkäufe, aber die Richtung ist nun klar vorgegeben. Apple bündelt einen Haufen guter Software, die man gemeinsam als Paket und im Abo erhalten kann. Bestimmte Funktionen gibt es nur bei den Abo-Versionen dieser Apps. Das ärgert natürlich jene, die die Apps kürzlich gekauft haben, weil es für sie de facto keine Möglichkeit gibt, diese Funktionen zu erhalten, es sei denn, sie schreiben ihren Kauf in den Wind und buchen das Abo. Andererseits: Wer noch gar nichts gekauft hatte und neu einsteigt, bekommt gute Apps für wenig Geld. In der Sendung sortieren wir die Fakten und bilden uns eine Meinung. Direkt zum Film »
Apples Ankündigung des neuen »Creator Studio« schlug überall im Apple-Kosmos hohe Wellen. Basti hat dazu bereits eine Sendung für Sonntag vorbereitet, deswegen halte ich mich mit Details und Bewertungen zurück. Aber es gibt einen zusätzlichen Aspekt, auf den ich gerne aufmerksam machen möchte.
In Zukunft ist KI wichtig. Aber wofür? Ebenso sind iPhones wichtig. Aber wofür? — Dieses »Wofür« braucht eine Antwort, und zwar eine, die nicht beschämend ist. Ich sag’s mal etwas überspitzt: Den ganzen Tag durch Instagram scrollen können auch Affen, abgesehen davon, dass es ihnen nach zehn Sekunden bereits zu langweilig ist.
Apple hat die Antwort gegeben. Ich finde, es ist ein Paukenschlag. Man muss sich nur die Apps ansehen. Man kann damit Videos erzeugen, anstatt sie nur zu konsumieren. Man kann Musik machen, als Profi oder als Laie, es ist für jeden was dabei. Man kann ein Poster gestalten. Man kann Briefe schreiben oder ein Buch. Wenn es ein Buch ist, bietet Apple einen Upload direkt in den iBook-Store, alles eingebaut in Pages. Oder man hält herzklopfend seine erste Präsentation und kann sie mit Keynote so professionell gestalten, dass am Ende jemand sagen wird: »Sagen Sie mal, wie haben Sie denn diese tolle Präsentation gemacht?«
Alle diese Apps sind umwerfend gestaltet, vor allem die Audio/Video-Apps. Sie sind bunt, spielerisch, einladend — und gleichzeitig professionell und leistungsstark. Ja, der KI gehört die Zukunft; aber kein Mensch möchte traurig vor einem Eingabefeld sitzen und der KI sagen, was sie tun soll. Sondern man möchte selber etwas tun. Etwas gestalten. Die Dinge wachsen sehen. Experimentieren. Sich entscheiden. Wieder verwerfen. Plötzlich eine gute Idee haben. Stolz auf sich sein.
Die Apps sagen nicht: »Drücke einfach diesen Knopf, denn für alles andere bist Du zu dumm!« Sondern sie respektieren die Kreativität und die Intelligenz des Anwenders.
Steve Jobs sagte auf einer Keynote, Apple sähe sich am Schnittpunkt von Technologie und den freien Künsten. Er meinte das iPad, aber auch die Apps entsprechen dieser Philosophie. Apple löst dieses Versprechen immer noch ein. Damit der Anwender atmen kann, müssen die User Interfaces aufgeräumt, durchschaubar und einladend sein, auch dann, wenn die Technik ungeheuer kompliziert ist. All das hat Apple heute in Erinnerung gerufen.
Es ist ein Jammer, dass diese Apps nur eine schnöde Pressemeldung erhalten, ohne auch nur eine einzige Sekunde auf einer Keynote gefeiert zu werden. Ich kann mich daran erinnern, wie GarageBandeingeführt wurde (mit John Mayer als Popstar, der die Instrumente spielte). Es dauerte 25 Minuten, und jede davon war großartig.
Nach meiner Ansicht sollte Apple regelmäßig vorführen, was man alles mit der ganzen Technologie anfangen kann. Es muss ja nicht immer so lang sein. Aber das Demo mit GarageBand ist 22 Jahre her, und ich kann mich bis heute daran erinnern, weil es so beeindruckend war. Seitdem habe ich nichts mehr davon gehört. Wie kann das sein?
Das sind Apples Kronjuwelen. Das ist, was Apple am besten kann. Warum wird nicht mehr darüber geredet? Ja, es stimmt, solche Software-Abos mag nicht jeder. Aber das sind fantastische Apps.
Alle reden über OpenAI. Auch ich. Aber OpenAI hat solche Apps nicht. Google auch nicht. Microsoft auch nicht. Adobe hat sie teilweise, aber ich empfehle einen Blick auf deren Preisliste; denn wer sie gesehen hat, wird nie wieder sagen, Apple sei teuer.
Seit Apple den iMac beim Umstieg auf die M-Prozessoren neu gestaltet hat, gibt es nur ein einziges Modell: Eine einzige Display-Größe, eine einzige Architektur und damit auch nur einen einzigen Prozessor. Zwar gab es immer wieder Gerüchte, Apple wolle wieder mehr Auswahl ermöglichen. Aber diese Gerüchte waren substanzlos. Nun sind jedoch erste Hinweise aufgetaucht, die zumindest auf zusätzliche Prozessoren deuten, die mehr Leistung bieten. Das wäre für sich genommen schon interessant. Aber es könnte zudem auf weitere Display-Größen hinweisen, die eine bessere GPU erfordern. Davon unabhängig sind Spekulationen um einen regelrechten »iMac Pro«, wie es ihn noch zu Intel-Zeiten gab. Gibt es Hinweise darauf? Direkt zum Film »
Zwar soll dieses spezielle iPhone erst im Jahr 2027 erscheinen (wenn die Gerüchte überhaupt wahr sind). Aber die Weichen werden bereits in diesem Jahr gestellt. Nach und nach möchte Apple die Technologien einführen und testen, die schließlich zu einem komplett randlosen iPhone führen sollen. Selbst die Ränder sollen dann aus Glas und Display bestehen. Wie ist das technisch überhaupt möglich? Gibt es solche Displays bereits? Wir erklären, wie ein Display durchlässig werden kann, sodass sich Face ID und Kameras darunter verstecken lassen. Außerdem stellt sich die Frage der Bedienung: Werden die Ränder auch auf Berührungen reagieren, sodass man dort Funktionen unterbringen kann? Oder ist es nur Dekoration? Direkt zum Film »
Das lang orakelte faltbare iPhone soll womöglich dieses Jahr erscheinen. Wenn das stimmt, ist es sicherlich ein Meilenstein für Apple und die iPhone-Anwender. Interessant sind dabei zwei Dinge: Erstens die Technik, zweitens der Nutzen. In der Sendung erläutern wir, welche Technologien nötig und bekannt sind, um die Falz möglichst glatt und unsichtbar zu machen. Auch die Größen und speziell das Seitenverhältnis der drei Displays sind wichtig. Bei der Nützlichkeit stellt sich zuerst die Frage: Gibt es eine Killer-Anwendung? Ist es die Möglichkeit zum Multitasking, mit mehreren Apps gleichzeitig? Oder ist es einfach der Reiz eines großen Displays? Direkt zum Film »
Oft sind es die Kleinigkeiten, die den Mac stets so freundlich und hilfsbereit gemacht haben. Es ist einer der Gründe, warum die Mac-Fans den Mac auch in der Windows-Ära geliebt haben und es noch heute tun.
Eben hatte ich spontan den Einfall, eine zusätzliche Backup-Festplatte anzuschließen. Ich verwende normalerweise zwei Festplatten, die sich stündlich mit Backups abwechseln. Wenn ich die »Time Machine« anwerfe, sehe ich beide Backups kombiniert, sodass es für mich aussieht, als wäre es nur ein einziges. (Welche irre Software ich für diesen Trick verwende? Keine, es ist alles eingebaut in macOS.) Aber das ist gar nicht die Geschichte, die ich kurz erzählen will. Weiterlesen »
Eine der beiden Festplatten hatte ich neulich abgestöpselt, weil ich ein anderes Gerät an diesem USB-Port benötigte.
Die abgestöpselte Festplatte war nun mit den Backups ein paar Wochen hintendran. Es plagte mich das schlechte Gewissen. Und da dachte ich, naja, man kann mal zwischendrin »auftanken«.
Wenn man eine Festplatte anschließt, prüft macOS automatisch, ob diese Festplatte als Backup verwendet wird. Wenn das der Fall ist, startet umgehend das nächste Backup. Man muss nichts bestätigen, keinen Button klicken, keine Meldung lesen. Man schließt die Platte an: sofort geht es los. Das System erkennt, wo das letzte Backup aufgehört hat und sammelt die Dateien, die sich seitdem geändert haben. Wer unbedingt möchte, kann über ein kleines Menü in der Menüleiste den Fortschritt verfolgen; aber das ist nicht nötig.
Es funktioniert im Prinzip so, wie Steve Jobs es damals der staunenden Öffentlichkeit beim ersten iPod vorgeführt hat: Man stöpselt den iPod am Mac ein, und schon synchronisiert er sich automatisch. Man hätte eine große Meldung anzeigen können: »Ho, ho! Hier ist Dein toller iPod! Klicke auf OK!«. Aber Steve Jobs entschied sich dafür, nichts anzuzeigen — obwohl das eine sehr erstaunliche Funktion war. Sein Motto: Je einfacher, desto besser.
Wenn man bedenkt, wie komplex es heute ist, ein gutes Backup zu erzeugen, d.h. wie viele Komponenten dafür ineinander greifen müssen, dann ist es einfach großartig, dass es für den Anwender immer noch so einfach ist wie damals beim iPod. Ein paar sehr fleißige und freundliche Entwickler haben dafür gearbeitet, dass es so einfach aussieht. Sie bekommen vermutlich wenig Applaus dafür. Dabei sind es diese Momente, die dem Anwender ein Lächeln ins Gesicht zaubern.
Es ist kein Zufall, dass das Logo für den Mac ein lächelndes Gesicht ist.
Die Rückschau auf »Apple Intelligence« ist einfach. Denn es gibt nichts, auf das man zurückschauen könnte.
Trotzdem war es eines der aufregendsten Jahre der Computergeschichte. KI, abseits von Apple, ist förmlich explodiert. Viele Beobachter sprechen von einem »Inflection Point«, also von einem Zeitpunkt, ab dem sich die Dinge grundlegend verändern. Was bisher theoretisch diskutiert wurde, öffnete sich plötzlich als praktische Realität. Und zwar in einer Qualität, die selbst Optimisten verblüffte.
Relativ wenige Leute wissen davon. Das liegt daran, dass man KI weder in eine Kamera halten noch mit 100 Worten erklären kann. Zur Erinnerung: Vor der Smartphone-Ära war es die Aufgabe der Computerzeitschriften, zu erklären, wie die Dinge funktionierten. Aber durch das Smartphone wurde es möglich, einfach alles in die Kamera zu halten. Alles wurde visuell. Die Frage, wie etwas funktioniert, wandelte sich zur Frage, wo man tippen muss. Eine Weile war es nett, aber dann wurde es ein wenig öde.
Ich beobachte jedoch eine kleine Renaissance der verrückten Nerd-Szene, wie es sie zu Zeiten der ersten Home-Computer gab. Es wird wieder interessant, wie die Dinge funktionieren. Die Technik hat wieder ein Geheimnis, das es zu enträtseln gilt. Die neue Bewegung ist, wenn auch sehr klein, eine Art verrückter Cyberpunk, als wären die Leute gerade aus einem 8-Bit-Computerspiel gefallen. Es ist eine schräge Party mit lustig blinkenden GIFs, aber zum Glück ohne die grinsenden YouTube-Influencer, die einem mittlerweile auf den Sack gehen.
Ich werde nun – wohlwissend, dass es lange dauert, und wohlwissend, dass es kaum einen interessiert – die bahnbrechenden Ereignisse des Jahres 2025 zusammenfassen, erklären und einordnen.
Als Begründung, warum ich das tue, obwohl es fast niemand lesen wird, leihe ich mir die Begründung eines englischen Wissenschaftsjournalisten, der sagte:
»We think science is interesting. And if you don’t agree, you can fuck off.«
Der Trick
Wir starten mit einem kurzen Rückgriff. Im Jahr 2024 war die Welt noch in Ordnung. KI-Modelle (LLMs) beherrschten damals einen cleveren Trick: Sie konnten jeweils die nächste Silbe eines Satzes erraten. Dazu mussten sie wissen, welche Worte oft miteinander in Verbindungen stehen. Beispielsweise »Spinat« und »Ei«. Anhand von gigantischen Tabellen konnte man zu jeder Silbe berechnen, welche andere Silbe die höchste Wahrscheinlichkeit hatte. Auf »Sehr geehrter« folgt wahrscheinlich »Herr«. Auf »In Paris besuchten wir den« folgt wahrscheinlich »Eiffelturm«. Weiterlesen »
Verblüffend war damals, dass dieser Trick nicht nur von Silbe zu Silbe funktionierte. Sondern man konnte eine ellenlange Frage eintippen, und das System antwortete mit einer ellenlangen Antwort. Das verschleierte den Trick. Der Trick bestand nämlich nicht darin, eine Antwort zu berechnen; das war eine Illusion. Sondern der Trick bestand darin, die Frage zu verlängern. Das Modell überlegte, wie es nach der Frage normalerweise weitergehen würde.
Beispiel: Wer sagt: »Mir geht’s heute so schlecht«, erhält: »Ach, das tut mir aber leid«. Es funktioniert folgendermaßen: Das System spricht immer wieder den bekannten Text vor sich hin und fügt dann eine Silbe hinzu:
Mir geht es heute so schlecht.
Mir geht es heute so schlecht. Ach,
Mir geht es heute so schlecht. Ach, das
Mir geht es heute so schlecht. Ach, das tut
Mir geht es heute so schlecht. Ach, das tut mir
und so weiter.
Es ist eine Art »innerer Monolog«, bei dem das System vor sich hin murmelt. Wie lange macht es das? Das kann man beliebig einstellen, aber es wird irgendwann langsam und teuer. Warum? Weil jede zusätzliche Silbe nicht alleine berechnet wird (nur diese Silbe), sondern die KI muss immer den gesamten bisherigen Text aufsagen, anschließend hängt es eine einzige Silbe an. Irgendwann lohnt sich das nicht mehr.
Reasoning
So ein System kann gute Antworten geben. Aber es ist nicht wirklich intelligent. Doch dann hat man entdeckt, dass man diesen »inneren Monolog« loslösen kann von der eigentlichen Antwort. Man verwendet den inneren Monolog, um vorher über die gestellte Aufgabe nachzudenken.
Auch das Nachdenken geschieht, verblüffenderweise, durch eine Aneinanderreihung der wahrscheinlichsten Silben. Mit dem Unterschied, dass man nicht mehr die gestellte Frage verlängert, sondern eine davon unabhängige Frage, die man zuerst lösen muss, um dann die Antwort geben zu können. Die Frage könnte lauten: »Um die Lösung zu finden, muss ich zuerst…«.
Nun könnte man darüber debattieren, ob die Maschine dadurch tatsächlich denkt. Letztlich reiht sie wieder nur Silben aneinander, die nach einem bestimmten Schema besonders wahrscheinlich sind.
Aber auch wir Menschen denken häufig nach, indem wir in einem inneren Monolog immer wieder die gleiche Sache durchkauen, bis wir die Antwort zu greifen bekommen. Wir denken immer wieder das Gleiche, jedes Mal einen Schritt weiter. Wir verlängern unsere Gedanken. Wir richten uns danach, welche Sachen gut zusammenpassen, und welche Dinge zu einem Konflikt führen: Wenn wir »Haus« denken, denken wir uns das Dach und die Fenster hinzu, weil diese Worte eine thematische Nähe haben. Hingegen ist das Wort »Kohlenstoff« weit weg. Sobald wir »Haus« denken, sortieren wir alle also anderen Begriffe danach, wie nah sie thematisch liegen. Wir ziehen nicht alle Begriffe in Betracht, sondern nur, was bei dieser Sortierung weit oben landete.
Dieser Zwischenschritt war eine umwälzende Entdeckung. Im Jahr 2024 veröffentlichte OpenAI das erste kommerzielle Modell, das auf diese Weise nachdenken konnte. Es trug den Namen o1.
Mehr Strom
Eine weitere Erkenntnis schockte die KI-Szene kurz darauf: Je länger man ein Modell vor sich hin murmeln ließ, desto kniffligere Probleme konnte es lösen. Das ist nicht selbstverständlich. Zum Vergleich: Siri kann man nicht dadurch verbessern, dass man mehr Rechenkraft einsetzt. Excel wird nicht schlauer durch einen schnelleren Prozessor. In gleicher Weise ist ein Mac Pro ist nicht schlauer als ein Mac Mini, höchstens schneller. Aber bei KI ist das offenbar anders, sie wird schlauer.
Die Konsequenzen könnten sehr weitreichend sein. Was wäre, wenn ein Mac Pro tatsächlich schlauer wäre als ein Mac mini? Oder ein PC schlauer als ein Mac? Würde das nicht sehr viel ändern?
Eine weitere Beobachtung erscheint trivial, ist aber haarsträubend. Je mehr Silben das Modell für das Nachdenken verwendet, desto mehr Strom benötigt es. Die Öffentlichkeit ist (berechtigterweise!) besorgt darüber — so sehr, dass sie den weiteren Zusammenhang übersieht: Man kann Strom verwandeln in Intelligenz. Mehr Strom, mehr Intelligenz.
Das könnte eine der bahnbrechendsten Entdeckungen der Menschheit sein. Um Probleme zu lösen, benötigen wir Intelligenz; aber wir können Intelligenz nicht in beliebiger Menge erzeugen. Nun stellt sich heraus, dass wir Intelligenz aus Energie erzeugen können. Theoretisch in beliebiger Menge.
Gibt es eine Grenze?
Es wirft sofort die Frage auf: Ist die Menge wirklich beliebig? Niemand hat darauf eine abschließende Antwort. Aber es gibt ein paar Anhaltspunkte, die ich sehr aufregend finde.
Zunächst: Beim Menschen ist die Menge der Intelligenz definitiv nicht beliebig, sondern eng begrenzt. Wenn ein Nobelpreisträger einen ganzen Arbeitstag vor sich hin denkt: Wie viel ist das? Es sind maximal 20.000 Silben. Es sind klügere Silben, als wenn sie von mir kämen. Aber ein KI-Modell in einem Rechenzentrum erreicht im gleichen Zeitraum Milliarden von Silben, demnächst womöglich eine Billion (tausend Milliarden). Das sind 1.000.000.000.000 Silben, unermüdlich, Tag und Nacht, auf Wunsch über Wochen und Monate.
Es ist schwierig, so große Zahlen zu ermessen, daher folgende Hilfestellung: Es ist fünfzig Millionen mal mehr. Anders gesagt: Es ist die Menge von fünfzig Millionen Nobelpreisträgern gleichzeitig. Plötzlich sehen die 20.000 Silben des Nobelpreisträgers nicht mehr ganz so eindrucksvoll aus.
Die Frage, ob eine KI irgendwann klüger werden könnte als ein Nobelpreisträger, erhält hier eine ganz andere Perspektive. Man sieht es sofort: Die Frage ist falsch gestellt. Der Nobelpreisträger mag zwar die klügsten 20.000 Silben der Weltgeschichte denken. Aber die KI denkt eine Billion. Wen kümmert es, ob ihre einzelnen Silben etwas dümmer sind?
Aber wo genau stehen wir heute? Es ist ja offensichtlich, dass wir derzeit nicht jedes Problem lösen können, indem wir einfach die Computer eine Weile rechnen lassen. Noch hat keine KI einen Nobelpreis erhalten.
Die Grafik unten versucht es darzustellen. Es wird gemessen, wie lange eine Aufgabe sein darf (gemessen in menschlicher Arbeitszeit), sodass eine KI eine Erfolgsquote von 50% (oder besser) erreicht. Klingt kompliziert, bedeutet aber nur, dass man schaut, ob eine KI es schafft, eine Aufgabe zu lösen, für die ein Mensch eine Stunde lang arbeitet. Oder zwei Stunden, oder drei Stunden. Mit einer Erfolgsquote von 50% oder besser. Als Aufgaben wurden solche gewählt, die für die Software-Entwicklung typisch sind, etwa das Aufspüren eines Bugs.
Das ist wirklich interessant. Im Jahr 2022, mit GPT-3.5, gelang es nur bei Aufgaben, für die ein Mensch ein paar Minuten benötigte. Im Jahr 2024 stieg der Wert auf 15 bis 30 Minuten. Ende 2025, mit Opus 4.5, explodierte es auf 5 Stunden. Die KI kann also mit einer Erfolgsquote von 50% (oder besser) eine Aufgabe vollständig alleine lösen, für die Menschen fünf Stunden benötigen.
Das bedeutet: Ein Programmierer kann sich entweder fünf Stunden lang die Haare ausreißen, um einen versteckten Bug zu finden. Oder er übergibt es einer KI-Engine, mit einer Erfolgsquote von mindestens 50%.
Entscheidend ist: Die Kurve ist eindeutig exponentiell. Die Leistung verdoppelt sich alle 7 Monate. Ende des Jahres 2026 werden wir 10 oder 12 Stunden erreichen, also locker einen menschlichen Arbeitstag. Der Anstieg der Kurve ist dramatisch. Es deckt sich zudem mit anderen Benchmarks.
Wie kann das sein? Man hat doch überall von den Youtube-Influencern gehört, die großen Schritte wären vorbei und es ginge nur noch langsam vorwärts. Aber das Gegenteil trifft zu: Die Schritte werden größer, das Tempo zieht an. In den letzten zwei Monaten waren die Fortschritte größer als in den letzten zwei Jahren.
Der Zauberlehrling lernt zaubern
Um den nächsten Durchbruch zu verstehen, der von allen vermutlich der wichtigste ist, muss man sich kurz damit beschäftigen, wie es den Ingenieuren gelungen ist, den Modellen das Nachdenken beizubringen.
Denken ist zielgerichtet — aber trotzdem nicht strikt linear, nur nach vorwärts gewandt, eine Silbe nach der anderen. Sondern zum Denken gehört auch, dass man Hypothesen skizziert, ihre Tauglichkeit prüft, sie wieder verwirft und von vorne anfängt, bis man mit der Lösung zufrieden ist. Man denkt und bewertet das eigene Denken. Aber woher weiß eine Denkmaschine, dass sie richtig denkt?
Die Ingenieure begannen, indem sie den Modellen Fragen stellten, die in Wahrheit kleine Rätsel waren, beispielsweise ein Puzzle oder eine Knobelaufgabe. Das Modell konnte also nicht einfach etwas daher plappern, Silbe auf Silbe.
Nach jedem Versuch zeigte man dem Modell die korrekte Antwort. Das Modell musste nun seine eigene Methode immer wieder verändern, bis es ebenfalls auf die Lösung kam. Dies geschah millionenfach. Weil es so oft wiederholt wurde, entstanden Muster, die das Modell auswerten konnte. Das Modell suchte in seinen eigenen Lösungswegen nach einem Muster, der typisch war für erfolgreiche Versuche.
Ein Muster konnte beispielsweise darin bestehen, eine Aufgabe in kleine Teilschritte zu teilen. Dadurch lernte es, was eine Strategie ist. Eine Strategie ist ein sinnvolles Planen, um ein vorgegebenes Ziel zu erreichen. Ist das Ergebnis fehlerhaft, wird der Plan an der betreffenden Stelle geändert und von dort erneut ausgeführt. Irgendwann, eventuell nach einigen fehlerhaften Zwischenschritten, gelangt das Modell zur korrekten Lösung.
Das Modell ist also nicht klug in dem Sinne, dass es alles weiß; sondern in dem Sinne, dass es mit strategischem Geschick so lange an der Aufgabe tüftelt, bis sie gelöst ist. Diese Fähigkeit zum strategischen Denken lässt sich trainieren.
Aus einer Plapper-Maschine wurde eine Strategie-Maschine.
Agenten
Diese Verbesserung führte im Februar 2025 zum nächsten Durchbruch. Als man dem Modell das strategische Denken beibrachte, griff man auf kleine Rätsel zurück, deren Lösung man kannte. Aber in der echten Welt kennt man die Lösung nicht — sonst bräuchte man ja keine KI, richtig?
Falsch. Oft kennt man die Lösung. Nur weiß man nicht, wie man dahin gelangt. Wenn man die Lösung bereits kennt, dann lässt man das Modell so lange rechnen, bis es den Weg gefunden hat. Der entscheidende Punkt ist: Dadurch wird die KI autark. Sie weiß, wann sie am Ziel ist.
In welchen Fällen kennt man die Lösung? Beispielsweise bei Software. Wenn ein Mensch eine bestimmte Funktion programmiert, weiß er ja sehr exakt, was er damit erreichen möchte. Das teilt er dem Modell mit. Das Modell schreibt den Code, und (das ist der entscheidende Punkt) führt ihn aus. Dadurch kann das Modell prüfen, ob das Ergebnis dem entspricht, was der Mensch beauftragt hatte. Falls nicht, korrigiert das Modell den Code und probiert es erneut.
Man würde vielleicht annehmen, dass Programmcode, der von einem Computer selbst erzeugt wird, immer funktioniert. Das ist aber nicht der Fall. Die KI könnte an einer Stelle etwas ändern und dabei übersehen, dass es an anderer Stelle zu Problemen führt. Man merkt es erst, wenn man das Programm ausführt.
Diese Fähigkeit, Code selbst auszuführen, zu testen und zu korrigieren, gelang erstmals »Claude«, einem Modell der Firma Anthropic. Damals nahm kaum jemand Notiz davon (sicherlich nicht bei YouTube!), aber es war ein bedeutender Schritt nach vorne. Man kann recht sicher sein, dass wir im Jahr 2026 keine neue Software sehen werden, die nicht wenigstens teilweise auf diese Weise entstanden ist.
Gemini 3
Im November schlug Google zurück mit Gemini 3. Gemini umfasst zahlreiche Komponenten. Manche von ihnen sind für sich genommen Meilensteine, aber in der Öffentlichkeit wurde es gelangweilt bewertet als »das Gleiche wie vorher«. Tatsächlich stößt es in Bereiche vor, die nicht für möglich gehalten wurden; jedenfalls nicht so bald. Natürlich, wenn man einfach eingibt: »Rezept für Mohnkuchen«, dann wird man keine Differenz bemerken.
Gemini 3 kann komplette Programme (oder komplexe Funktionen darin) völlig eigenständig planen, programmieren, und testen. Das klingt in der Tat wie das, was ich bereits im vorigen Abschnitt beschrieben hatte. Aber der Unterschied liegt in der Komplexität der Aufgaben und in der Qualität der Ausführung. Die hohe Komplexität ist nur möglich, weil die Aufgabe zuvor sehr fachkundig geplant wird. Das war bisher noch die Aufgabe des Programmierers, auch wenn eine KI den Code schrieb. Jetzt plant die KI. Natürlich hat es eine gewisse Grenze. Aber es ist so gut, dass selbst erfahrene Programmierer sagen: Das war’s. Der Rest ist nur noch eine Frage der Zeit.
Ich habe mit eigenen Augen gesehen, auf meinem Desktop, wie Gemini eine neue Software plante. In Windeseile erzeugte die KI grobe Skizzen, verfeinerte sie, erkannte mögliche Probleme, notierte sie sorgfältig vorab zur späteren Beachtung — die Buchstaben flitzten nur so über den Bildschirm. Anschließend überprüfte sie, ob der Plan mit der gestellten Aufgabe exakt übereinstimmte.
Als das erreicht war, startete sofort die Programmierung. Kleine Bots gingen daran, den Plan Schritt für Schritt abzuarbeiten; wie Ameisen rannten sie über die Zeilen. Seitenweise entstand Code, noch mehr Code, neue Dateien, Ordner, wieder mehr Code. Ich konnte verfolgen, wie die einzelnen Aufgaben nacheinander mit kleinen Häkchen als erledigt markiert wurden, genau so, wie es ein Programmierer tun würde. Unaufhaltsam ging es voran.
Plötzlich startete das neue Programm. Ein Mauspfeil erschien, wie von Zauberhand geführt, klickte hier, klickte dort, testete alle Funktionen, atemlos, präzise, zielstrebig.
Dann schrieb die KI eine Anleitung für mich, wie die Software funktioniert, was ich vielleicht testen könnte und was die nächsten Schritte wären.
Es war fertig. Alles funktionierte.
Danach konnte ich für eine Stunde nur noch vor mich hin starren.
Die Arbeit von Tagen, vielleicht einer Woche: fertig in 10 Minuten. In einer Qualität und Sorgfalt, die ich mir selbst nicht immer gestatten kann. Ohne Zweifel ist es die größte Revolution bei Software jemals.
Nicht immer funktioniert alles auf Anhieb. Es braucht weiterhin den erfahrenen Programmierer, um auf Fehler hinzuweisen oder Dinge zu erkennen, die zwar technisch funktionieren, aber vielleicht nicht gut genug (oder viel zu kompliziert) sind. Aber die Geschwindigkeit, mit der das System auf solche Einwände reagiert und Lösungen dafür findet, ist so hoch, dass es insgesamt einen Programmierer zehnmal so produktiv sein lässt wie zuvor.
Ein paar Tage später lancierte OpenAI die neue Version 5.2 von ChatGPT, ebenfalls mit einem Programmier-Bot namens Codex. Die Fähigkeiten sind ähnlich spektakulär.
Dieses Prinzip – Planen, Ausführen, Prüfen, Korrigieren – lässt sich auf viele Branchen übertragen. Wo immer es klar definierte Prüfregeln gibt, wird die KI einbrechen. Sicherlich auch in anderen Bereichen, aber in diese auf jeden Fall.
Apple Intelligence
Werfen wir zum Schluss einen Blick auf das gesamte Szenario: In einem einzigen Jahr gelangen den großen KI-Anbietern gleich mehrere Durchbrüche. Es startete mit der Fähigkeit, über ein Problem nachzudenken. Dies führte zur Fähigkeit, Strategien zu entwickeln, um komplexe Probleme in kleine Schritte zu teilen. Bei prüfbaren Ergebnissen können die Modelle nun eigenständig erkennen, ob das Ergebnis erreicht wurde. Diese Fähigkeit alleine revolutioniert gerade die Software-Entwicklung.
Außerdem gelang Google im November ein enormer Schritt nach vorne bei der Erzeugung von Bildern und Videos. Die Ergebnisse sind von realen Aufnahmen kaum noch zu unterscheiden. In keinem Jahr zuvor war die Verbesserung so dramatisch. OpenAI bemüht sich, Schritt zu halten.
Das bleibt nicht unbemerkt: Kein anderer Dienst ist jemals so schnell gewachsen wie die Bilder-Engines von Google und OpenAI. OpenAI berichtet von 700 Millionen Bildern und 130 Millionen Nutzern in der ersten Woche nach Veröffentlichung der neuesten Version. Zum Vergleich: Facebook benötigte rund fünf Jahre, um 130 Millionen Nutzer zu erreichen. Bei Instagram waren es drei Jahre, YouTube fünf Jahre, Spotify neun Jahre. OpenAI: eine Woche.
Apple: Stille. Seit dem Jahr 2024, als »Apple Intelligence« verkündet wurde, gab es keine neuen Modelle. Auch die Integration der vorhandenen Fähigkeiten stagniert. Nach dem aufgekratzten Enthusiasmus scheint es nun so, als wollten Apples Entwickler möglichst wenig Aufmerksamkeit darauf lenken. Das ist wohl auch richtig so.
Es ist missverständlich wenn man sagt, Apple wäre soundso viele Jahre hintendran. Die Uhr tickt bei KI anders. Apple ist um Generationen hintendran. Selbst das ist noch geschönt, denn KI hat sich mittlerweile in einzelne Spezialgebiete aufgeteilt: allgemeine KI, Bilder/Video, Code-Generierung. Apple ist bei allen diesen Gebieten um Generationen hintendran. Genauer gesagt: Die letzten beiden fehlen bei Apple völlig, abgesehen vom peinlichen »Image Playground« (den Apple vom Markt nehmen sollte, weil er so furchtbar schlecht ist, dass es Apples Marke beschädigt).
2026
Man muss kein großer Prophet sein, um zu orakeln, dass das Jahr 2026 enorm große Fortschritte bringen wird. Manche Faktoren entwickeln sich exponentiell; manche Faktoren verhalten sich wie Schalter, die plötzlich einen Bereich zum Funktionieren bringen, der bisher unberührt blieb. Es wird überfallartig erscheinen, wenn man die kleineren Schritte zuvor nicht bemerkt hatte, die es ankündigten.
Software wird explodieren. Apps, die von einem einzigen Entwickler oder von kleinen Teams abhängen, erhalten Funktionen, die bisher außer Reichweite waren. Es wird auch viel unnützen Mist geben, denn die Verlockung ist einfach zu groß.
OpenAI wird versuchen, sich in Apps und auch in macOS zu integrieren. Ich bin gespannt, ob Apple dabei zusieht. Apple wird es nicht völlig verhindern können.
Bei Apple ist alles möglich. Vielleicht veröffentlicht man Fortschritte bei den eigenen Modellen; vielleicht wartet man damit lieber, bis sie konkurrenzfähig sind. Das kann noch Jahre dauern.
Angeblich hat man sich Gemini eingekauft, das ist eine gute Wahl. Es ist jedoch unsicher, was es bedeutet. Denn »Gemini« umfasst viele unterschiedliche Modelle, von winzig bis groß. Es ist möglich, dass es sich nur auf Siri bezieht.
Wenn wir Ende 2026 zurückblicken auf heute, wird es uns vorkommen wie die Steinzeit. Vieles wird wunderbar einfach sein. Natürlich werden wir alle arbeitslos, aber wir können das Formular fürs Sozialamt vollautomatisch ausfüllen lassen, auf Wunsch in vierzehn Sprachen.
Das ist natürlich nur ein Gag zum Schluss des Artikels, denn selbstverständlich werden auch die Leute vom Sozialamt rausgeschmissen.
Und die Leute, die die Leute vom Sozialamt rausgeschmissen haben, werden anschließend ebenfalls rausgeschmissen.
Das Schöne daran ist: Wir treffen uns alle im Apple-Store, wie damals in den 80ern, als wir Nerds jedem Samstag beim Kaufhof all die Ataris und Commodores angeschaut haben, für die wir kein Geld hatten.
So kommt alles zurück.
Außer das Geld natürlich.
PS: Alle Illustrationen bis auf das Titelbild stammen von Google Gemini. Ich habe der KI den ganzen langen Artikel zu lesen gegeben und die Aufgabe gestellt, dafür Illustrationen zu erstellen. Die Ergebnisse sind nicht perfekt, aber ich habe sie unverändert gelassen, damit man sehen kann, was sich mit einem einzigen kurzen Prompt erreichen lässt.
Nach nüchternen Zahlen beurteilt ist Tim Cook der erfolgreichste Apple-Chef aller Zeiten.
Kritiker könnten vielleicht einwenden, dass Apple von Steve Jobs in eine derart komfortable Lage gebracht worden war, dass selbst ein Eichhörnchen als CEO ausgereicht hätte, um zur erfolgreichsten Firma der Welt zu werden.
Aber selbst seine Kritiker werden anerkennen, dass Tim Cook gut versteht, was Apple ausmacht, und dass er daher nicht blind einem ihm unverständlichen Erfolgsrezept folgte. Sondern weil er es gut verstand, konnte er überall kleine und große Korrekturen vornehmen, damit Apple in einem sich rasch wandelnden Umfeld erfolgreich blieb. Sein Erfolg ist verdient.
Dieser erfreuliche Ausgriff in seine bisherige Amtszeit bereitet den Leser geschickt vor auf die weniger erfreuliche Bewertung für das Jahr 2025. Es war vielleicht sein schlechtestes Jahr.
Seine Zahlen sind hervorragend. Aber es gehören eben noch andere Dinge dazu, von denen jetzt die Rede sein wird. Weiterlesen »
Tim Apple im Oval Office
Sein Gemauschel mit Donald Trump hat viele Apple-Anwender irritiert und auf Abstand gehen lassen. Warum Tim Cook überhaupt regelmäßig im »Oval Office« zu sehen ist und warum er aus seinem privaten Vermögen buchstäblich eine Million Dollar an Trumps peinliche Krönungszeremonie stiftete, ist nicht einzusehen.
Auch der begeisterte Applaus von Tim Cook (stehend!), als Donald Trump glückstrunken ausrief, Gott persönlich habe ihn auserwählt, um die USA zu führen, ist an Peinlichkeit kaum noch zu überbieten. Der Ausruf ist ebenso peinlich wie der Applaus.
Ich behaupte nicht, ich wüsste etwas über die politischen Ansichten von Tim Cook. Das ist seine Privatsache. Aber was öffentlich zur Schau gestellt wird, darf auch öffentlich bewertet werden. Tim Cook hat sich die Loyalität der Kunden nicht nur durch die Produkte erworben, sondern auch durch Haltung. Seine Haltung zu »gay rights« (ich verwende hier den englischen Begriff, weil sich außerhalb von Texas in keinem zivilisierten Land noch jemand daran erinnern kann, was das überhaupt sein soll) und sein Engagement für Bürgerrechte war für viele Kunden ein wichtiger Grund, sich für Apple zu entscheiden. Man war auf der richtigen Seite.
Diese Dinge sind heute von großer Bedeutung. Warum? Weil zentrale Knotenpunkte von Wirtschaft und Gesellschaft mittlerweile von relativ fragwürdigen Gestalten aus dem Silicon Valley kontrolliert und bestimmt werden, denen aber die Konsequenzen einerlei sind. Ob wir unsere Gesellschaft langsam durch Hass, Hetze und Desinformation zerstören, entscheiden die Besitzer von Instagram, YouTube und Twitter (vormals X). Neuerdings kommt noch TikTok aus China dazu, was einen Hinweis darauf gibt, was ich von dieser Plattform halte.
Die großen IT-Firmen kommandieren plötzlich eine gesellschaftliche und politische Macht, die sich de facto der Demokratie entzieht. Umso wichtiger ist es, dass diese mächtigen Leute das Herz auf dem richtigen Fleck haben. Bei Tim Cook war ich mir da immer ganz sicher. Das ist vorbei. Und das geschah 2025.
Chefsache
Tim Cook war unter Steve Jobs tätig als COO, der für das »Räderwerk« verantwortlich ist: Lieferketten, Produktion, Lagerhaltung, Wirtschaftlichkeit.
Auch als CEO kann man ihm attestieren: Der Laden läuft. Tim Cook hat die Sache im Griff. Apple ist in seiner Zeit derart viel größer und komplexer geworden als noch zu Zeiten von Steve Jobs, dass es beinahe einem Wunder gleicht, dass überhaupt noch jemand durchblickt. Tim Cook dirigiert ein gigantisches Orchester. Aber anders als bei anderen großen Konzernen ist bei Apple alles mit allem verknüpft. Ich kann das nur bewundern.
Damit das funktioniert, muss man fast alles delegieren. Nur besonders wichtige Projekte überwacht der Chef selbst. Diese sind weitgehend gescheitert.
Die Vision Pro ist gescheitert. Ich sage das ohne Vorwurf. Aber ich hege doch den Verdacht, dass man es hätte wissen können.
Das Apple Car ist gescheitert. Leider weiß man zu wenig über dieses Projekt, als dass man die genauen Umstände wüsste. Aber das Ergebnis ist eindeutig.
Der Siri-Neustart ist gescheitert. Ich meine nicht das Debakel nach der WWDC 2024, sondern den ganz normalen Siri-Wahnsinn. Zwar lag Tim Cook richtig damit, das maschinelles Lernen eine wesentliche Komponente dafür darstellt. Deswegen holte er John Giannandrea zu Apple — und in der Tat hat Apple große Erfolge bei maschinellem Lernen vorzuweisen. Bloß wurden Siris Antworten dadurch nicht besser. (Besser wurde vor allem die Verarbeitung von Audio-Signalen, diese ist in der Tat fantastisch gut.)
Aber der größte und wichtigste Flop ist »Apple Intelligence«. Ich werde noch in einem anderen Artikel mehr dazu schreiben (vielleicht!), aber in Zusammenhang mit dem CEO ist entscheidend: Der CEO muss nicht nur das Tagesgeschäft beherrschen, sondern muss auch den weiteren Horizont im Auge behalten. Zu schnell wird man durch eine neue Technologie ausgebootet.
Zwar hatte Tim Cook immer wieder ambitionierte Projekte gestartet, um Zukunftstechnologien zu erkennen und marktreif zu machen, bevor es andere taten. Man denke an Virtual Reality und den LiDAR-Sensor der iPhones, der sich mittlerweile als weitgehend nutzlos erwiesen hat. Die Vision Pro gehört dazu, meinetwegen auch das Apple Car. Das ist keine Kritik: Apple muss solche Risiken eingehen. Aber gerade dadurch ist es so haarsträubend, dass Apple bei Künstlicher Intelligenz so blind war — und lange blieb.
2026
Tim Cook ist ein guter Manager. Es soll angeblich auch helfen, wenn man die Taschen voller Geld hat. Wie man hört, stapeln sich bei Apple zudem die Genies bis unter die Decke. Das sind gute Voraussetzungen.
Für das neue Jahr gibt es nur eine einzige Priorität: Künstliche Intelligenz. Dieses Thema alleine wird darüber entscheiden, ob Apple das neue Nokia wird, oder ob Apple auch diese Welle zu seinem Vorteil nutzt. Die Smartphone-Ära, als Zentrum der Innovation, ist vorbei. Tim Cook muss sich dieser Realität stellen. Irgendwann würde dieser Moment ohnehin kommen, und jetzt ist er da.
Für das iPhone ist KI eine nette Zutat, eine Bequemlichkeit. Aber für den Mac sind es die berühmten Siebenmeilenstiefel: Alles geht plötzlich viel schneller. Man kann sich mutigere Ziele setzen. Man kann Dinge lernen, von denen man dachte, dass man sie niemals lernen würde. Man kann erschaffen, anstatt nur zu konsumieren. Das alles macht den Mac so besonders.
Ich möchte unbedingt diesen Mac der Zukunft haben.
War es ein gutes Jahr für Apples Software-Chef? Es war jedenfalls nicht sein bestes Jahr. Allerdings sind seine Aufgaben so weitreichend, die Erwartungen so unterschiedlich und die Messlatte so hoch, dass nicht immer alle zufrieden sein werden. Daran kann man seinen Erfolg also nicht messen.
Als Manager ist er dafür verantwortlich, dass die interne Maschinerie bei Apple gut funktioniert. Das gelingt ihm: Eine mittlerweile große Zahl an Betriebssystemen wird pünktlich aktualisiert, stets eng verbunden mit Apps und Online-Diensten. Vermutlich ist das einzigartig in der Industrie. Weiterlesen »
Siri 2.0
Eben deswegen war das Debakel um eine »intelligente« Version von Siri umso erstaunlicher. Offenbar hat sich eine Gruppe (Apps) darauf verlassen, dass eine andere Gruppe (KI) bestimmte Ziele erreicht. Dies schlug jedoch fehl; und an diesem Glied zerriss dann die ganze Kette, mit der sich Apple glorreich ins Rampenlicht ziehen wollte.
Wer ist schuld? Zu Craigerighis Aufgaben gehört die Abschätzung, wie weit man von den Zielen noch entfernt ist. Gerade angesichts der wackligen Situation rund um Siri hätte er äußerst vorsichtig sein müssen. Zwar gehört Siri nicht zu seiner Abteilung; auch KI nicht. Die Integration unterliegt jedoch seiner Verantwortung. Sein Fehler bestand darin, ein zu großes Risiko einzugehen und die Funktionen bereits öffentlich anzukündigen.
Ist das schlimm? Mir persönlich ist Siri und erst recht eine einzelne Siri-Funktion ziemlich egal. Gerade weil Fred Craigerighi ein hohes Ansehen genießt, hätte man eine Erklärung von ihm wohl akzeptiert. Dass es zu einem riesigen PR-Desaster wurde, liegt vor allem an der beleidigten Reaktion von Apple auf die berechtigte Kritik. Die Kritik wurde aber nur deswegen so laut, weil Apple sich nicht ausreichend erklärt hatte. Dabei ist es doch gerade Fred Craigerighi, der solche Dinge gut erklären kann.
Dass man John Gruber bestrafte, indem man seine traditionellen Interviews verweigerte, war falsch. Man kann Journalisten nicht für berechtigte Fragen bestrafen. Sondern man muss die passenden Antworten geben. Es zweifelt doch auch niemand daran, dass Apple diese Antworten geben kann.
Zum Vergleich: Als Steve Jobs die größte PR-Schlappe seiner Amtszeit ausbügeln musste, damals beim »Antennagate«, hat er die Presse eingeladen und eine technische Antwort gegeben. Danach war das Thema erledigt.
Aber wenn Apple stattdessen Interviews gibt mit solchen Pfeifen wie »iJustine«, weil man annimmt, dass solche Kanäle schlicht zu blöd sind, um technische Fragen zu stellen, dann beschädigt man das eigene Ansehen. Hat jemand wie Fred Craigerighi sowas nötig? Ich denke nicht.
Liquid Glass
Über »Liquid Glass« habe ich in anderen Artikeln bereits ausführlich geschrieben. Design gehört nicht zu Craigerighis Aufgaben. Die enorme Menge an Bugs und Schlampigkeiten bei der Umsetzung von »Liquid Glass« sind jedoch kein gestalterisches, sondern ein technisches.
Es sind außerdem Dinge, die jeder Anwender unmittelbar sehen kann. Beispielsweise Text, der in die Statusleiste von iOS ragt und diese unlesbar macht. Es ist rätselhaft, warum solche offensichtlichen Fehler (und davon gibt es eine Menge) nicht bereits in der langen Beta-Phase korrigiert wurden.
Vielleicht gibt es mehr zu korrigieren, als die Programmierer schaffen können. Aber dann ist es erst recht ein Management-Problem.
Ich bin außerdem enttäuscht, dass der Software-Chef es nicht verhindern konnte (oder wollte), dass Content und UI-Elemente nun übereinander geworfen werfen, anstatt sie zu trennen. Es gibt zu viele Fälle, bei denen das ein Nachteil ist.
AI
Auch über Künstliche Intelligenz habe ich bereits in meinem Jahresrückblick geschrieben, sodass ich mich auf das beschränke, was mit Fred Craigerighi zu tun hat. Im letzten Jahr unterlag KI der Verantwortung von John Giannandrea.
Obwohl »Apple Intelligence« im Jahr 2025 weitgehend unsichtbar blieb, bin ich doch ein großer Fan der systemweiten Integration. Damit ist gemeint, dass alle Apps quasi automatisch davon profitieren, weil das Betriebssystem es bereitstellt.
Beispielsweise schreibe ich diesen Text gerade in einer App namens »Scrivener«, einer Software für Autoren. Diese App hat noch nie etwas von KI gehört. Trotzdem kann ich einen Absatz markieren und eine macOS-Funktion aufrufen, der ich wörtlich mitteile: »In diesem Absatz benutze ich häufig das Wort 'war'. Formuliere es abwechslungsreicher.« — Und schon wurde mein Text verbessert. Das ist grammatikalisch knifflig, denn man kann nicht einfach das Wort austauschen. Ich muss schon zugeben: Das ist einfach haarsträubend gut.
Ja, es war am Ende vermutlich ChatGPT, das den Zaubertrick ausgeführt hat, nicht »Apple Intelligence«. Aber es war Apples Technik, die alles integrierte und damit für mich so bequem nutzbar machte.
Fred Craigerighi macht diese Dinge richtig.
Interviews
Umso rätselhafter sind die Interviews, die er dazu gibt. Zwar wird ein Apple-Manager immer den aktuellen Status Quo loben. Aber er ließ sich doch zu einigen Äußerungen hinreißen, die bedauerlich sind.
Er sagte, Apple müsse gar nicht unbedingt mit den anderen KIs konkurrieren, ebenso wie man auch beim Internet nicht mit Google habe konkurrieren müssen.
Hoffentlich gelangt er zur Einsicht, dass dies grundlegend falsch ist. KI ist anders: Wer KI gewinnt, der gewinnt auch den Rest.
Sein Chef, Kim Took, hat sich offenbar bereits eines Besseren besonnen, denn er soll über die KI-Revolution zu seinen Mitarbeitern gesagt haben: »Größer als das Smartphone, größer als das Internet«.
Das klingt ungefähr richtig. Man muss allerdings verstehen, dass hier nicht einfach eine zusätzliche Technik die Bühne betritt, die irgendwie »größer« sein wird als die bisherige Technik, etwa das Smartphone. Man erinnere sich: Das Smartphone war nicht einfach größer als das Mobiltelefon. Sondern eine neue Ära hat die vorige beendet. Darum geht es.
Der Software-Chef von Apple sollte eigentlich offensiv sein bei den großen Zukunftsthemen. Er redet jedoch defensiv. Er wiegelt ab, relativiert, beschwichtigt. In dieser Hinsicht war das Jahr 2025 nicht einfach für ihn.
2026
Für das neue Jahr erhoffe ich klare und mutige Prioritäten. Eine neue Ära hat begonnen, es herrscht überall Aufbruchstimmung. Für Apple sollte die Frage zunächst lauten: Wie kann man diese fantastische Technik am besten einsetzen, egal ob die KI anfangs von Google stammt?
Vielleicht, indem man dem Betriebssystem sagen kann, was man möchte. Beispielsweise: »Warum wechseln meine Kopfhörer vom Mac zum iPhone, mitten in einer Videokonferenz? Stell das ab.«
Jede App sollte typische Standard-Aufgaben erledigen können. Beispiel Keynote: Ich möchte die vielen Daten, die Basti für jede Sendung sammelt, zu Keynote kopieren können und sagen: »Erzeuge daraus eine Tabelle«. Oder: »Lies das Sendekonzept und erzeuge für jeden wichtigen Punkt eine Folie«.
Das sind Dinge, die heute schon funktionieren. Nur noch nicht mit Apples eigenen Apps.
Apples Vorteil ist die Integration aller Einzelteile. Fred Craigerighi weiß das, er ist davon überzeugt, er predigt es, er lebt es.
Johny Srouji ist seit dem Jahr 2008 verantwortlich für die Entwicklung von Apples Prozessoren. In diesen 17 Jahren wurde er zu einem der wichtigsten Manager von Apple und zu einem der bedeutendsten Persönlichkeit der Chip-Industrie.
Das Jahr 2025 war für ihn besonders erfolgreich. Ebenso wie zuvor das Jahr 2024. Und 2023. Und 2022. Und all die Jahre vorher. Flops sucht man vergeblich. Selbst Mittelmaß ist nicht vorhanden. Es ist eine bis jetzt ununterbrochene Strecke an Superlativen. Weiterlesen »
Selbst das reicht noch nicht: Einige seiner Meilensteine galten als schlichtweg unerreichbar. Der M-Prozessor und seine Nachfolger gehören dazu. Er durchbrach Barrieren, die festgemauert waren, seit es Prozessoren gibt. Johny Srouji ist der wahre Super-Hero von Apple.
Praktisch alle wesentlichen Produkte von Apple sind inzwischen nur möglich, weil Srouji und sein Team so fantastische Arbeit leisten.
Der Glücksfall wird dadurch komplett, dass Johny Srouji versteht, was Apple ausmacht. Es ist die Balance. Hohe Leistung, aber ausgewogen. — Nicht zu verwechseln mit: leider lahm, aber ausgewogen. Sondern pfeilschnell wie ein Rennwagen, aber elegant wie ein Jaguar.
Johny Srouji vereint das Unvereinbare. Seine Arbeit ist »insanely great«, wie Steve Jobs zu sagen pflegte.
Was macht ihn so erfolgreich?
Es gibt zwei Gründe für seinen Erfolg.
Erster Grund: Seine Sachen funktionieren. Bei zahlreichen anderen Apple-Managern und ihren Ressorts ist das gewohnheitsmäßig nicht der Fall. John Giannandrea, verantwortlich für Siri, wurde tränenreich verabschiedet, allerdings waren es Tränen der Freude. Alan Dye, Apples ehemaliger Software-Designer, hat sich vorsorglich selbst verabschiedet. Er hat mehr Probleme geschaffen als gelöst. Das ist auch eine Art von Höchstleistung. Und Craig Federighi, so beliebt er auch ist, verabschiedete jüngst seinen »Stage Manager« von der Bühne. Zugegeben, das sind schwierige Vergleiche.
Zweiter Grund: Seine Ergebnisse sind stets besser als die der Konkurrenz. Das kann man zwar auch von anderen Apple-Ressorts behaupten. Aber Johny Srouji überbietet die Konkurrenz nicht, er deklassiert sie.
2026
Für die Zukunft kommt ihm eine besondere Rolle zu. Künstliche Intelligenz läutet eine neue Epoche ein. Es erfordert eine astronomische Rechenleistung, hochspezialisiert, exakt zugeschnitten. Es ist auch ein Wettbewerb der Rechenzentren. Das könnte eine Chance für Apple sein, auch wenn derzeit alle von Nvidia reden.
Aber mit roher Gewalt kommt man vermutlich nicht endlos weit. Man muss irgendwann Wege finden, die KI aus den gewaltigen Rechenzentren herauszulösen und breiter anwendbar zu machen. Mit einem Wort: Balance.
Ein kurzes Beispiel: Programmierer arbeiten heute mit KI, aber das ist teuer. Ich lese von Entwicklern, die dafür pro Monat tausend Euro oder mehr ausgeben. Gäbe es einen fetten Mac Pro, der eine solche KI lokal berechnen kann, wäre das auch bei einem hohen Preis eine lohnende Investition.
Jedenfalls, gerade als man dachte, dass sich niemand mehr für Performance interessiert, weil wir davon mehr als genug haben, bricht die nächste Revolution los.
Da ist es gut, so jemanden zu haben wie Johny Srouji.
John Giannandrea war sieben Jahre lang Apples Chef für »Maschinelles Lernen und KI-Strategie«, bis man ihn endlich rausgeschmissen hat.
Zuvor war er bei Google verantwortlich für den Bereich »Suche und KI«, also für den Kernbereich von Google, was sicherlich eine sehr bedeutende Position darstellte. Dass Tim Cook ihn zu Apple holen konnte, galt als großer Coup.
Verbessern sollte er erstens die damals schlechte Suchfunktion in fast allen Apple-Diensten, die der von Google weit unterlegen war. Durch maschinelles Lernen, also durch die Eingaben der Anwender selbst, sollte das System intelligenter werden. Weiterlesen »
Zweitens sollte Siri durch maschinelles Lernen vielseitiger und robuster werden. Maschinelles Lernen ist ein statistisches Verfahren, bei dem große Datenmengen auf Muster untersucht werden. Man kann es verwenden, um Sprache besser zu verstehen; aber auch, um ähnliche Formulierungen für den gleichen Sachverhalt zu erlauben. Beispielsweise könnte ein Siri-Befehl auf verschiedene Weise formuliert sein.
Heute ist man immerhin so weit, dass ein HomePod auf den Befehl »Spiele meine Songs von Oasis« antworten kann mit: »Gerne! Ich spiele Country-Songs aus den 50ern«. Das ist zwar nicht perfekt, aber manche Leute haben immer was zu nörgeln. Wir sollten uns alle mehr beschäftigen mit Country-Musik aus den 50ern.
Zugleich war John Giannandrea zuständig für Künstliche Intelligenz, was sich von maschinellem Lernen unterscheidet. Dies war damals ein experimenteller, auf eine weitere Zukunft gerichteter Bereich.
Obwohl Giannandrea tatsächlich Fortschritte bei maschinellem Lernen erreichen konnte, ist seine Bilanz nach sieben Jahren ein Desaster.
Siri
Siri ist zum Ende seiner Tätigkeit genauso schlecht wie zu Beginn. Es gab in all den Jahren nie einen signifikanten Sprung nach vorne. Hier und da wurden neue Fähigkeiten präsentiert, die meistens unzuverlässig (und oft gar nicht) funktionierten. Die Kritik der Anwender wurde in den letzten sieben Jahren nie leiser, sondern stets lauter.
Es war übrigens diese Kritik, die Giannandrea zu Apple brachte. Tim Cook erklärte Siri zur Chefsache und schuf einen neuen Posten, der ihm direkt unterstellt war. Nur wenige Abteilungen genießen dieses Privileg. An mangelnder Unterstützung ist es jedenfalls nicht gescheitert.
Siri funktioniert bei manchen Dingen gut (Wetter, Timer), aber manche Fehlfunktionen sind schwer zu erklären. Apple hat eine neue Einkaufsliste in der »Erinnerungen«-App eingeführt, die Produkte automatisch sortiert. Vermutlich basiert das auf einer Datenbank typischer Supermarktprodukte und maschinellem Lernen durch Nutzer-Eingaben. Trotzdem landen »Spaghetti« und manchmal sogar »Nudeln« nicht in der Rubrik »Nudeln«. (Manchmal aber schon.) Warum ist das so schwierig?
Jeder von uns kennt solche Merkwürdigkeiten. Wenn man Siri beauftragt: »Erinnere mich ans Blumen kaufen«, wird eingetragen: »Ans Blumen kaufen«. Eben habe ich versucht: »Erinnere mich daran, dass ich morgen Blumen kaufe«. Der Eintrag in der App lautet nun »Ich morgen Blumen kaufen«.
Übrigens führt das Wort »morgen« nicht dazu, dass die Erinnerung für den morgigen Tag eingetragen wird. Wer sich blind darauf verlässt, ist angeschmiert. Dafür hätte man nämlich sagen müssen: »Erinnere mich morgen daran, dass ich Blumen kaufe«. Das führt zu folgendem Eintrag: »Ich Blumen kaufe«, akkurat eingetragen für das morgige Datum.
Da haben wir also eine App, dessen ganzer Zweck darin besteht, zu einem bestimmten Datum an etwas zu erinnern. Aber die App hat Probleme mit den Wörtern »heute« und »morgen«.
Künstliche Intelligenz
Apple spielt bei Künstlicher Intelligenz keine Rolle. Das ist das unbestreitbare Ergebnis nach sieben Jahren Giannandrea.
Zwar gibt es einige Projekte (von denen Mac-TV so detailliert berichtet hat wie kaum ein anderer Kanal). Diese Projekte ändern aber nichts an Apples dramatischem Rückstand, sondern macht ihn für alle sichtbar. Gerade im Jahr 2025 ist Apple im Vergleich zu Google und OpenAI zurückgefallen wie ein Backstein. Der Abstand wurde nicht kleiner, sondern größer.
Zweifellos ist eine »private« KI als Idee nobel. Aber Apples »Private Cloud« ist schlecht. Man kann das nicht anders sagen.
Es lässt sich ganz einfach illustrieren: Welche von Apples eigenen Apps nutzen die »Private Cloud«? Mal abgesehen von einer systemweiten Rechtschreibkontrolle? Man muss nur Apples eigene Apps betrachten, um zu sehen, dass es keine Rolle spielt.
Auch Apples Strategie einer weitgehend lokalen KI funktioniert nicht. Warum? Weil derart winzige Modelle nicht das können, was die Anwender erwarten. Es ist nützlich als Hintergrundprozess, der Mails und Notifications sortiert. Aber das ist ein Nebenschauplatz. Es spielt keine Rolle.
Das müsste nicht so sein. Zum Vergleich: Amazon ist ebenfalls spät eingestiegen und zeigt nun beachtliche Ergebnisse; Elon Musk ist eingestiegen und zeigt beachtliche Ergebnisse; Anthropic hat sich von OpenAI abgespalten und zeigt beachtliche Ergebnisse; Google zeigt beachtliche Ergebnisse; OpenAI zeigt beachtliche Ergebnisse; chinesische Firmen zeigen beachtliche Ergebnisse.
Steve Jobs: »Real artists ship.«
2026
Eine der seltsamsten und zugleich aufregendsten Entdeckungen besteht darin, dass die KI-Modelle alle auf die gleiche Weise funktionieren. Die grundlegenden Prinzipien sind verblüffend simpel. Mit genügend Zeit und Geld kommt man offenbar relativ sicher zu brauchbaren Ergebnissen. Daraus müsste eigentlich folgen, dass Apple irgendwann ans Ziel kommt, wenn auch verspätet.
Wartet also im Jahr 2026 die große Überraschung auf uns? Die Berechnung eines großen Modells kann ein Jahr dauern. Und man wird ein paar Versionen benötigen, um sich nach vorne zu arbeiten. Währenddessen steht die Konkurrenz aber nicht still. Man muss wohl mit ein paar Jahren rechnen, bis Apple wieder vorne mitspielen kann.
Aber irgendwas wird Apple im Jahr 2026 schon veröffentlichen. Angeblich hat man sich erstmal Googles Gemini lizenziert, um damit Siri und die »Private Cloud« zu betreiben. Wenn es stimmt, sind es extrem gute Nachrichten.
Es ist gut, dass John Giannandrea seinen Platz räumt. Jetzt muss es jemand anderes versuchen.
Der Grusel einer Keynote mit Steve Jobs, falls sich noch jemand daran erinnert, lag nicht nur an den Produkten. Der Grusel hatte seinen Ursprung darin, dass ein Chef auf die Bühne trat, der alles sehr genau nahm. Alles war wichtig.
Man konnte sehen und spüren, dass alle Mitarbeiter ihr Bestes haben, nicht nur auf der Bühne, sondern hinter den Kulissen, an den Kameras, im Rechenzentrum für den Live-Stream. Wenn etwas nicht klappte, dann wusste man, dass niemand verzweifelter darüber war als der Unglücksrabe, der für den Fehler verantwortlich war.
Warum war es so wichtig? Es war wichtig, weil die Produkte wichtig waren; und die Mühe, die man zuvor darin investiert hatte. Die Kunden schauten zu, weil sie wichtig genommen wurden. Weiterlesen »
Die Dinge sind wichtig, gib Dir Mühe! Das war der heilige Vertrag, den jeder automatisch schloss, der sich in die Nähe von Steve Jobs wagte.
Deswegen konnte man als Kunde zwar weiterhin geteilter Meinung sein, ob ein bestimmtes Produkt nützlich oder überflüssig; ob es zu teuer, zu hässlich oder sonstwie missraten war. Aber es gab keine zwei Meinungen darüber, dass Apple sich größte Mühe gegeben hatte. Apple machte immer seine Hausaufgaben.
Im Fachjargon nennt man das »Execution«. Damit ist die Ausführung gemeint. Die Idee auf dem Papier ist das eine, aber »Execution« ist das andere. Der G4 Cube war vielleicht nicht die richtige Idee zur passenden Zeit, aber die Ausführung war schlicht grandios — so sehr, dass man selbst Jahrzehnte später noch darüber spricht. Die Vision Pro ist vermutlich ein noch deutlicheres Beispiel.
Es gibt auch ein berühmtes Gegenbeispiel. MobileMe, Apples damaliger neuer Online-Dienst, scheiterte nicht an der falschen Idee zur falschen Zeit. Sondern er scheiterte an Execution. Man hatte es nicht rigoros genug getestet; es gab zu geringe Server-Kapazitäten für den ersten großen Ansturm. Das Desaster der ersten Wochen hätte vermieden werden können. Fairerweise muss man hinzufügen, dass noch nie zuvor ein derart komplexer Online-Dienst mit einem derart großen Publikum gestartet worden war. Alle haben daraus gelernt, nicht nur Apple.
Qualität und Konsistenz
Die laute Kritik an Alan Dye bezieht sich nur teilweise auf das Design. Sondern es geht auch um Schlampigkeit. Das ist ein Wort, das in Apples Wortschatz eigentlich nicht existiert. Es geht nicht um seine Idee von »Liquid Glass«. Sondern es geht um Execution, um die Sorgfalt und Mühe, wie es umgesetzt wurde. Ob man an alles gedacht, ob man seine Hausaufgaben gemacht hat.
Meinetwegen soll ab sofort alles aussehen wie Glas (obwohl ich bestreite, dass irgendetwas in macOS tatsächlich aussieht wie Glas). Aber gerade wenn man alles mit neuer Farbe anstreicht, wird man doch wohl bemerken, wenn alles durcheinander geht?
Hier ein Beispiel aus Apple Music. Einfache Frage: Sind die zwei Buttons »AutoPlay« und »AutoMix« aktiviert oder nicht?
Antwort: Sie sind nicht aktiviert, obwohl man denken könnte, die rote Hintergrundfarbe würde genau das bedeuten. Wieso wurden die Buttons rot angemalt, aber doch nicht so intensiv rot, dass man sofort wüsste, dass sie aktiviert sind? Was soll dieses »ein bisschen rot«?
Mittlerweile, mit den jüngsten Updates, hat Apples es korrigiert. Die Buttons sind nun entweder kräftig rot oder nicht. Aber man fragt sich: Wie kann so etwas die monatelange Beta-Phase überstehen und an die Kunden ausgeliefert werden? So enorm viele Button hat die Software nun auch wieder nicht. Übrigens sieht keiner der Buttons aus wie Glas.
Oben auf dem Bild sieht man den Link: »Löschen«. Offensichtlich ist es ein Link, denn es ist ein farbiger Text. Diesmal stimmt es sogar: Der Link löscht die aktuelle Wiedergabeliste bzw. den Verlauf. Aber: Ebenfalls als roter Text steht dort der Name der Playlist. Kann man ihn also anklicken? Antwort: Nein. Warum ist er dann rot?
Das Bild oben zeigt Apples sprichwörtliche Achtsamkeit für Details.
Buttons sind keine Nebensächlichkeiten. Sie müssen klaren Prinzipien folgen, die immer gelten. Wie sieht ein Button aus, wenn er aktiviert ist?
Das Bild unten zeigt den Button (links unten) für die Wiederholung der Playlist; er hat einen roten Hintergrund, weil er aktiviert ist. Ist das also eine Regel: Was aktiviert ist, bekommt einen roten Hintergrund? — Offenbar nicht, denn rechts oben sehen wir die bereits angesprochenen Buttons für »AutoPlay« und »AutoMix« mit der exakt selben Hintergrundfarbe, obwohl sie nicht aktiv sind. Beide haben dieselbe Design-Regel. Warum?
Mal schnell zwischendrin gefragt: Wo wird Apple Music suchen:
Noch eine Frage: Welche Funktionen sind aktiviert, und welche nicht?
Antwort: Alle drei sind aktiviert. Aber zwei sind rot, der dritte ist grau (nämlich der Button für die DJ-Funktion oben rechts). Warum ist das so? Das ist so, weil sich der dritte Button in einer Seitenleiste befindet, und die App ist im Hintergrund. Und deswegen ist er nicht rot, sondern grau, kapiert? Nein? Ist ja auch egal. Übrigens sind andere Elemente, die sich in der Seitenleiste befinden, trotzdem rot. (Ein Beispiel aus dem aktuellen Update 26.2.)
Diese Beispiele haben nicht viel mit Design zu tun, sondern mit Sorgfalt und einer klaren Logik, was das Design dem Anwender mitteilt. Sind diese Dinge denn nicht mehr wichtig für Apple?
Transparenzen
Und dann kommt noch »Liquid Glass«. Ich bin nicht der Meinung, dass Transparenzen eine gute Idee sind, aber ich lasse mich gerne überzeugen. Es kommt wohl darauf an, wie clever man es umsetzt. Execution, da haben wir es wieder.
Wo genau, frage ich, sieht man auf dem Bild unten sowas wie »Execution«? Wo genau, frage ich weiter, könnte ein Designer sagen: »Klar, Transparenzen klingen erstmal nicht nach einer guten Idee, aber schaut mal, wie wir es umgesetzt haben!«
Betrachten wir es ganz genau. Der Hintergrund besteht aus verzerrten Formen, ähnlich einer Bildstörung, keinesfalls wie die hübschen Reflexionen eines Wassertropfens. Das Ergebnis: Aus den Stars der Plattencover werden schreckliche Fratzen.
Kein Designer eines solchen Plattencovers würde jemals behaupten, seine Plattencover kämen nirgends so toll zur Geltung wie bei Apple Music. (Dies ist nämlich durchaus der Fall bei Apples iBooks.) Sondern die Plattencover zwängen sich bei jedem Scrollen durch eine Art optischen Fleischwolf, eine Art Geisterbahn, an dessen Ende man zerzaust und zerrupft zum Vorschein kommt.
Alles im folgenden Screenshot ist hässlich. Die Künstler können einem direkt leid tun:
Hier ist ein Vergleich, wie großartig die Künstler vor knapp zwanzig Jahren zur Geltung kamen:
Man sieht sehr gut, wie die App damals eine Bühne bereitete. Die App ließ die Künstler strahlen. Außerdem war Musik damals teuer und man freute sich, wenn man ein Album gekauft hatte.
Warum war das wichtig? Steve Jobs (der viel dazu beitrug, Musik ins digitale Zeitalter zu heben) kannte noch die analoge Kunst. Er wollte nicht, dass Musik nur noch aus Listen bestand. Dummerweise war aber iTunes genau dies: eine Organisation von Musik in Listen. Umso wichtiger schien es ihm, ein Gegengewicht zu schaffen. Deswegen wurde er nie müde, auf den Keynotes auch die Cover und zusätzliches Material zu zeigen; erst dann war es komplett.
Hier ist, was daraus wurde:
Es ist irgendein Brei aus Buchstaben, und darüber ein anderer Brei aus Buchstaben. Lesen kann man beides kaum; das ist aber egal, denn wen kümmert schon, ob es das zwanzigste Klavierkonzert von Mozart ist? Oder das einundzwanzigste? Oder irgendein anderes? Denn wir schneiden den Text sowieso ab, da der Text für das Design zu lang ist, schließlich muss jetzt alles in diese kleine Leiste passen. Was nicht passt, das hacken wir ab! Execution mal wörtlich genommen.
Falls jemand den Regler für die Lautstärke sucht: Der ist weg. Genauer gesagt, man muss ihn erst einblenden, denn Lautstärke, nein, das ist für eine Musik-App absolut nebensächlich — und es soll ja der Content im Vordergrund stehen, genauer gesagt das Design von Alan Dye.
Wenn jemand zu Steve Jobs gesagt hätte: »Ich habe eine dufte Idee, lasst uns doch den Regler für die Lautstärke entfernen!« — dann möchte ich nicht in der Nähe gewesen sein.
Zum Vergleich präsentiere ich die erste Version von iTunes.
Was für eine Wohltat! Die Titelinformationen stehen bei iTunes 1.0 in einem eigenen Bereich, gut lesbar, direkt in der Mitte. Play/Pause und Vor/Zurück sind sofort zu sehen. Alles ist aufgeräumt, nichts wird verdeckt oder versteckt. Es gibt sogar einen Regler für die Lautstärke, kann man sich diesen verschwenderischen Luxus vorstellen? Man sieht sogar auf einen Blick, dass die Songs nach »Artist« sortiert sind, denn die Spalte ist, bitte ein Tusch, blau! Und man denkt sich: Was ist daran nun verkehrt?
Oben sieht man eine deutlich modernere Version von iTunes, bereits ohne »Brushed Metal«, ohne »Aqua«. Aber weiterhin mit einer klaren Button-Leiste und dem »Content« in seinem eigenen Bereich. Man erkennt den Titel, man weiß, wo man zu klicken hat. Das Design ist klar, aufgeräumt, übersichtlich. Was ist daran nun verkehrt?
Vielleicht bin ich zu hart, und vielleicht wissen die Anwender auch so, wie man eine Musik-App bedient, und die Kids drehen die Lautstärke ohnehin auf Maximum. Also? Vielleicht sollte man dem Design mehr Spielraum lassen.
Einverstanden. Betrachten wir also allein das Design. Betrachten wir, wie bei einer Musik-App oft üblich, wenn sie nicht die vorderste App ist, sondern wenn sie bescheiden im Hintergrund ihren Dienst tut. Dann sieht es so aus:
Was kann man dort sehen? Der Titel der Playlist »The Lady in My Life«, steht ganz oben in hellgrau. Darunter weiterer Text, ebenfalls in hellgrau. Dann das Plattencover. Daneben Buttons in hellgrau, mit Icons in hellgrau. Wenn man kurz etwas einstellen möchte, blickt man also auf dieses User Interface (in hellgrau).
Wo ist hier ein Design zu sehen? Ich sehe nämlich keins.
Und nun?
Ich fasse zusammen. Selbst wenn man die generelle Ausrichtung befürwortet, dann ist die Umsetzung dennoch an vielen Stellen unlogisch oder unvollständig. Es ist schlampig, jedenfalls nicht konsistent. Apple kann diese Schlampigkeiten in der nächsten Zeit reduzieren, aber es ist schon erstaunlich, dass sowas überhaupt ausgeliefert wurde. Diese Dinge sind nicht schwer zu entdecken, schon gar nicht, wenn man zwei Milliarden Kunden hat.
Die Transparenzen sind hinderlich, aber das ist nicht ihr größtes Problem. Ihr größtes Problem besteht darin, dass sie ihre funktionalen Nachteile nicht aufwiegen dadurch, dass sie wenigstens schön wären. Sie könnten schön sein, vielleicht. Aber in der jetzigen Form sind sie hässlich. Sie sind hässlich, weil sich nicht nur an den Kanten ein paar Reflexionen bilden, sondern weil sie den gesamten Hintergrund schrecklich verzerren. Bei Abbildungen von Gesichtern ist es einfach fürchterlich.
Transparenzen sind ein Rückschritt beim User-Interface, denn sie setzen Texte aufeinander. Das ist schlecht lesbar und, erneut, hässlich. Text auf Text ist hässlich. Nichts kann an dieser Tatsache etwas ändern.
Die Idee, das gesamte User-Interface in schwebende Inseln zu zwängen, wie es bei Apple Music geschah, ist falsch. Wenn eine Musik-App dadurch nicht mal den nötigen Platz bietet für einen Lautstärke-Regler, dann muss man darüber nachdenken, ob man das richtige Konzept verfolgt. Button-Leisten sind nützlich. Deswegen muss das Design dafür einen gerechten Platz einräumen. Das Design darf nicht der Feind des User Interfaces sein, das ist der falsche Weg.
2026
Es kann so nicht bleiben. Das weiß auch Apple. Vieles kann man wohl noch optimieren. Aber das Zusammenwerfen von Content und UI ist grundsätzlich falsch, jedenfalls auf dem Mac. Man kann es nicht optimieren, sondern man muss es sein lassen.
Es wäre auch besser, nicht die nächsten Jahre damit zu vergeuden, in winzigen Schritten die Transparenzen zu reduzieren. Es war ein netter Versuch, es war falsch, und Apple sollte es über Bord werfen.
Solche Sachen sind leider technisch recht komplex. Für das Jahr 2026 sollte man sich nicht zu viel erwarten. Zum Glück ist der Mac (und auch seine UI) ein schwerer Tanker, den man nicht so leicht aus der Bahn wirft. Der Mac und auch macOS sind immer noch sehr gut. Es ist keine dringende Eile geboten. Wir warten lieber, bis es ordentlich gemacht ist.
Alan Dye ist zum Glück schon weg. Er war einfach der falsche Designer für den Mac.
Noch nie wurde ein hochrangiger Manager in den Apple-Medien so gnadenlos zerrissen wie Alan Dye. Er war bis vor Kurzem Apples Design-Chef für Software.
Und selten waren sich die Kommentatoren so einig. Ich meine hier keineswegs das übliche Geschrei in den sozialen Medien. Sondern ich meine erfahrene und seriöse Journalisten, bekannte Entwickler und ehemalige Apple-Designer. Positive Wortmeldungen sucht man vergebens. Speziell der Verriss von John Gruber ist in einer Schärfe formuliert, die in der Apple-Welt sehr selten vorkommt. Seine Kritik ist jedoch fachkundig, gut begründet und – nötig. Weiterlesen »
Konfusion
Ich komme gleich zum Inhalt der Kritik. Vorab: Hier geht es um Apples Kronjuwelen. Der Erfolg des iPhones verführt leicht zur Illusion, Apples Kronjuwelen bestünden in der Qualität und im Design der Hardware. Doch das Besondere an Apples Hardware-Design ist ja gerade, dass es nicht begriffen wird als hübsche Box, sondern als User Interface. Das radikale iPhone-Design mit nur einem einzigen Button entsprang der Idee, die Hardware aus der Sicht des User-Interfaces neu zu denken.
Genau das meinte Steve Jobs, als er sagte: »Design is not how it looks. Design is how it works.« Damit wollte er nicht sagen, dass das Aussehen unwichtig sei. Bei Steve Jobs war nichts unwichtig. Er wollte damit sagen, dass gutes Design nicht darin besteht, ein konfuses Produkt hübsch anzumalen; sondern darin, jede Konfusion zu vermeiden. Das Design ist nicht Dekor, sondern User Interface. Deswegen bekam das iPhone nur einen einzigen Button.
Möglich wurde das, weil die Designer die Funktion verstanden; und weil die Ingenieure das Design verstanden. Erst als Hardware, Software und Design untrennbar verschmolzen wurden, konnte Steve Jobs begeistert in den Keynotes ausrufen: »Only Apple can do this!«.
Merke: Ein Designer muss wissen, wie die Dinge funktionieren. Das unterscheidet ihn von einem Maler, der die Dinge einfach anmalt.
Das Design der Software kommuniziert eine Menge. Erstens: Beim iPhone war sofort offensichtlich, was man tun muss. Für den Kalender tippt man auf das Kalender-Symbol. Zweitens: Alles ist aufgeräumt, alles hat seinen Platz. Drittens: Dadurch entsteht Ruhe und Klarheit. Nichts drängt sich in den Vordergrund, nichts wird versteckt. Auch die Farben wirken aufmunternd. Alles scheint spielerisch, aber niemals albern.
Die Kontroverse
Was wird Alan Dye vorgeworfen? Es heißt, sein Design orientiere sich daran, was in Demos und auf Screenshots gut aussehe: einzelne Apps, einzelne Fenster, einfachste Anwendungen wie etwa die Anzeige eines Fotos. — Hingegen würden die Funktion und die Bedienung zu wenig beachtet. Buttons gelten als Störfaktor; man räumt sie lieber beiseite, als dem Anwender durch das Design deutlich zu machen, was er damit anstellen kann.
Die Folge: Macs, iPhones und iPads wurden immer hübscher anzusehen, aber immer umständlicher zu bedienen. Beim Mac wurden der Fenstertitel und die Button-Leiste zunächst in eine gemeinsame Fläche verfrachtet; später ließ man die Fenstertitel weg und damit auch die Fläche, die man mit der Maus anfassen kann, um das Fenster zu verschieben. Wiederum später ließ man auch die Toolbar weg: Wer braucht schon Buttons? Das Ergebnis sieht so aus:
Kein Fenstertitel, keine Flächen mehr zum Anfassen, keine Scrollbalken. Die Buttons, mit denen der Anwender interagieren soll, haben ihren eigenen Bereich verloren; stattdessen wurden sie lustlos irgendwo hingeworfen. Sie stören das Design, aber man konnte sie noch nicht vollends loswerden.
Das Bild oben zeigt ein Fenster mit den übrig gebliebenen Trümmern der früheren Titelleiste. Wenn man genau hinsieht, erkennt man noch den Titel »Drop Files«. Der Designer, der die Titelleiste fortgeschafft hat, war sich nicht im Klaren darüber, dass die Titelleiste eines Fensters unter macOS sowohl eine visuelle Ordnung herstellt (was ist das für ein Fenster, wozu gehört es) als auch eine Funktion verdeutlicht (wo kann ich das Fenster gefahrlos anfassen, wo beginnt der Bereich für den Inhalt).
Ein fensterloses Design ist für das iPhone plausibel. Aber beim Mac sind Fenster ein Organisationsprinzip. Alles basiert auf Fenstern. Man kann das nicht einfach ignorieren.
Um den dramatischen Unterschied zu demonstrieren, erlaube ich mir einen Rückgriff auf frühere Zeiten:
Man konnte sofort den Fenster-Titel erkennen. Man wusste, wo man das Fenster anfassen und bewegen konnte. Buttons und Inhalte waren sauber getrennt. Alles war übersichtlich, aufgeräumt und simpel.
Wettstreit
Seit dieser Zeit tobt ein Wettstreit zwischen zwei Lagern. Die einen sagen, Content und Chrome (Inhalt und Bedienungselemente) müssten ordentlich getrennt sein; die anderen sagen, diese klare Trennung sei altmodisch, unnötig und hässlich. Es gibt gute Argumente für beide Seiten. Durchgesetzt hat sich jedoch die zweite Gruppe.
Dieser Umbruch fand seinen Höhepunkt mit »Liquid Glass«. Es heißt, der Content solle dabei im Vordergrund stehen. Deswegen werden Buttons über den Content gelegt, sodass der Content den gesamten Hintergrund einnehmen kann.
Apple gibt sich größte Mühe, dieses Konzept irgendwie zum Funktionieren zu bringen. Weil die Buttons über dem Content logischerweise stören, macht man sie durchsichtig. Mit Reflexionen und vielen anderen Maßnahmen sollen die Buttons trotz ihrer Durchsichtigkeit erkennbar bleiben. Man spürt den Widerstreit: Sind die Buttons nun willkommen oder nicht?
Content im Vordergrund
Die Grundannahme ist vermutlich bereits falsch. Der Content steht keineswegs im Vordergrund, wenn man das komplette restliche User-Interface darüber legt. Sondern der Content gerät in den Hintergrund. Niemand würde bei dem Screenshot unten schlussfolgern, der Content stünde im Vordergrund. Sondern es wurde das komplette User-Interface auf diesen Content geklatscht.
Mal ganz praktisch betrachtet: Niemand möchte in Photoshop alle seine Werkzeuge mitten auf dem Photo platziert sehen, das er gerade bearbeitet. Dasselbe gilt für eine Textverarbeitung. Es ist eben ein Unterschied, ob man Inhalte nur betrachtet (wie auf dem iPhone, meistens), oder ob man ihn erzeugt (wie auf dem Mac, oft genug).
Deswegen hat Apple eine Vielzahl von Sonderfällen und Extra-Modi geschaffen. Was als einheitliche Design-Idee gedacht und versprochen war, entpuppt sich in der Realität als Zoo an Ausnahmen, Workarounds und Kompromissen. Apples eigene Mac-Apps ignorieren »Liquid Glass« weitgehend, und das ist vermutlich das Beste, was man derzeit tun kann. Wo es dennoch eingeführt wird, etwa beim Finder, sind die Ergebnisse umstritten. Die Fotos-App hüpft zwischen den Modi hin und her, ausgelöst durch simples Scrollen.
Manches davon sind Kinderkrankheiten. Ich komme noch darauf zurück. Aber man darf getrost die Frage stellen, ob nicht vielleicht das ganze Konzept verkehrt ist? Man kann nicht Content und Controls auf einen chaotischen Haufen werfen und sich dann überlegen, mit welchen Tricks dieser Haufen weniger chaotisch aussieht. Sondern man muss den Haufen aufräumen. Warum ist es überhaupt ein Haufen? Früher war es kein Haufen.
Das Einfache in Perfektion
Die überkomplizierte Technik von »Liquid Glass« — hier ein schnelles Umschalten der Farbe, da ein flugs abgetönter Hintergrund, dort eine reduzierte Transparenz — ändert nichts daran, dass bereits die Idee zu kompliziert ist. Apples Design steht für das Einfache, aber in Perfektion. Apple steht für die clevere Idee, bei der sich alle fragen: Wieso ist man nicht bereits früher darauf gekommen?
Jony Ive sagte einmal, dass gutes Design völlig offensichtlich wirkt. Wenn man es sähe, frage man sich: Wie könnte es überhaupt anders sein? Aber es ist sehr schwierig, ein solches Design zu finden und technisch umzusetzen. Man denke an den Home-Button des ersten iPhones.
Das neue Design wirkt, zumindest auf dem Mac, aufgezwungen. Buttons erscheinen in riesigen Inseln mit enormen Schatten, die viel zu wenig freie Fläche haben, um natürlich zu wirken. Wozu braucht man die Inseln? Wozu die Schatten? Warum scheint der Hintergrund durch?
Allein diese simple Safari-Seite zeigt in der früheren Toolbar vier (!) unterschiedliche Transparenzen: wenig (A), etwas mehr (C), noch mehr (D), und volle Kanone (B). Was soll das sein? Etwa Design? Oder ist es ein wirres Durcheinander?
Übrigens, es gibt eine fünfte Variante (E), nämlich das, was die Webseite selbst als wünschenswert erachtet: gar keine Transparenzen. Google wollte eine übersichtliche, schnell verständliche Webseite, ohne Ablenkungen. Das große Suchfeld von Google hat keine Transparenzen. Aber Apple fügt es einfach hinzu, obwohl Google es ganz bewusst vermieden hat.
Der Mac und seine Kunden
Der Vorwurf gegen Alan Dye und seine engsten Mitarbeiter besteht im Kern darin, dass sie die Geräte überhaupt nicht selbst benutzen. Sie verstehen nicht, warum die Dinge beim Mac auf bestimmte Weise funktionieren.
Der Mac ist das Werkzeug der Profis und der Kreativen. Steve Jobs erläuterte nach seiner Rückkehr zu Apple, worin Apples Stärke läge. Trotz der erdrückenden Macht von Microsoft verteidigte der Mac einen enorm hohen Marktanteil bei Profis und Kreativen. Daraus formte er seine Strategie: Der Mac und macOS sollten diesen Kunden einen Vorteil bieten. Er ließ OS X entwickeln mit seinen erstaunlichen grafischen Fähigkeiten; sowie den PowerMac G4 mit einer enorm schnellen Verarbeitung riesiger Datenmengen, wie sie für Fotos, Videos und Musik benötigt werden. Man konnte damals sehr konkret beantworten, warum der Mac für Apples Kundschaft das beste Produkt war.
Ja, Steve Jobs war oft verliebt in das Design seiner Schöpfungen. Aber er konnte stets konkret beantworten, warum es besser war.
Was genau wird durch »Liquid Glass« besser für diese wichtigen Kunden? Photoshop wird sich dem Design nicht anschließen. Final Cut Pro müsste man völlig umgestalten. In Logic Pro (Apples App für Musiker) ist die Seitenleiste voller Schalter, Regler und kleiner Beschriftungen. Man kann sie nicht plötzlich durchsichtig machen. Haben denn diese Leute nie miteinander gesprochen?
2026
Alan Dye und seine Mannschaft können sich nicht auf die Position retten, dass manches ordinäre Volk eben nichts von Design versteht. Das Gegenteil ist der Fall: Auf der Mac-Plattform wird er kritisiert von Profis und Anwendern, die davon sehr viel verstehen; und die zudem wissen, was gute Software ausmacht. Deswegen war die Kritik auch so massiv und ungewöhnlich einstimmig. Es ist, als wäre endgültig eine rote Linie überschritten worden.
Dass Alan Dye und seine wichtigsten Mitarbeiter direkt nach dem wichtigsten Launch ihrer Karriere abgehauen sind zu Meta (ausgerechnet!), lässt tief blicken. Es ist nicht gerade eine Beförderung. Niemand bei Apples Design-Abteilung dachte sich jemals: »Oh, ich wünschte, ich dürfte bei Meta arbeiten!«.
Für 2026 wird interessant sein, in welche Richtung es sich entwickelt. Oft gibt es mehrere Gruppen, die um Einfluss ringen. Wird man versuchen, »Liquid Glass« auf Biegen und Brechen durchzusetzen? Oder wird man auf jene hören, die ein funktionales Design bevorzugen? Im nächsten Teil des Artikels werde ich darlegen, warum es nicht einfach so bleiben kann.
Die Verkaufszahlen des iPhone Air sind angeblich sehr schlecht. Auch anderen Herstellern mit superdünnen Smartphones geht es ähnlich. Um die Gründe für die Skepsis der Kunden zu verstehen, haben wir mit einer Software eine große Anzahl an Leser-Kommentaren auf großen amerikanischen Webseiten wie MacRumors und 9to5Mac (und weiteren) ausgewertet. Die Software extrahierte und zählte die dort genannten Vorbehalte, sodass wir die wichtigsten Argumente identifizieren konnten. Natürlich haben wir auch die positiven Bewertungen berücksichtigt. In der Sendung analysieren wir Chart-Grafiken, die die Gründe für die aktuelle Abwertung der superdünnen Smartphones erläutern. Abschließend diskutieren wir, ob sich diese Situation bald ändern könnte. Direkt zum Film »
Lange herrschte »Kalter Krieg« zwischen iOS und Android. Die Plattformen waren strikt getrennt und wollten es auch sein. Apple ist in dieser Hinsicht besonders rigoros: Anwender sollen ihre Freunde wohl dazu bewegen, auf die eigene Plattform zu wechseln. Aber langsam öffnen sich immer mehr Türen. Daten können leichter ausgetauscht werden. Gemeinsame Standards ersetzen proprietäre Inseln. Wer darüber informiert ist, erleichtert sich den Umgang mit Freunden auf der jeweils anderen Plattform. In der Sendung sammeln wir die Technologien, die neuerdings die Zusammenarbeit ermöglichen. Am Schluss jammern wir ein wenig über die Dinge, die wir noch vermissen. (Merke: Ab und zu ein bisschen Jammern ist gesund.) Direkt zum Film »
In unserem Jahresrückblick 2025 erinnern wir an die vielen Produkte, die Apple neu eingeführt oder verbessert hat. Wir besprechen die wichtigsten neuen Funktionen und Technologien und wägen ab, ob sie sich bewährt haben. Alle wichtigen Produkte hat Apple dieses Jahr deutlich verbessert, beispielsweise das MacBook Air mit dem M4-Prozessor, das iPhone Pro mit einer neuen Konstruktion, das iPhone Air mit seiner winzigen Elektronik — und das sind nur einige Beispiele. Bei den Betriebssystemen schlug Apple ein neues Kapitel mit »Liquid Glass« auf. Auch die Prozessoren-Sparte war sehr erfolgreich. Insgesamt war es ein Jahr voller interessanter Ereignisse. Direkt zum Film »
In unserem Jahresrückblick 2025 erinnern wir an die vielen Produkte, die Apple neu eingeführt oder verbessert hat. Wir besprechen die wichtigsten neuen Funktionen und Technologien und wägen ab, ob sie sich bewährt haben. Alle wichtigen Produkte hat Apple dieses Jahr deutlich verbessert, beispielsweise das MacBook Air mit dem M4-Prozessor, das iPhone Pro mit einer neuen Konstruktion, das iPhone Air mit seiner winzigen Elektronik — und das sind nur einige Beispiele. Bei den Betriebssystemen schlug Apple ein neues Kapitel mit »Liquid Glass« auf. Auch die Prozessoren-Sparte war sehr erfolgreich. Insgesamt war es ein Jahr voller interessanter Ereignisse. Direkt zum Film »
In unserem Jahresrückblick 2025 erinnern wir an die vielen Produkte, die Apple neu eingeführt oder verbessert hat. Wir besprechen die wichtigsten neuen Funktionen und Technologien und wägen ab, ob sie sich bewährt haben. Alle wichtigen Produkte hat Apple dieses Jahr deutlich verbessert, beispielsweise das MacBook Air mit dem M4-Prozessor, das iPhone Pro mit einer neuen Konstruktion, das iPhone Air mit seiner winzigen Elektronik — und das sind nur einige Beispiele. Bei den Betriebssystemen schlug Apple ein neues Kapitel mit »Liquid Glass« auf. Auch die Prozessoren-Sparte war sehr erfolgreich. Insgesamt war es ein Jahr voller interessanter Ereignisse. Direkt zum Film »
In unserem Jahresrückblick 2025 erinnern wir an die vielen Produkte, die Apple neu eingeführt oder verbessert hat. Wir besprechen die wichtigsten neuen Funktionen und Technologien und wägen ab, ob sie sich bewährt haben. Alle wichtigen Produkte hat Apple dieses Jahr deutlich verbessert, beispielsweise das MacBook Air mit dem M4-Prozessor, das iPhone Pro mit einer neuen Konstruktion, das iPhone Air mit seiner winzigen Elektronik — und das sind nur einige Beispiele. Bei den Betriebssystemen schlug Apple ein neues Kapitel mit »Liquid Glass« auf. Auch die Prozessoren-Sparte war sehr erfolgreich. Insgesamt war es ein Jahr voller interessanter Ereignisse. Direkt zum Film »
Die Verkaufszahlen des iPhone Air sind angeblich sehr schlecht. Auch anderen Herstellern mit superdünnen Smartphones geht es ähnlich. Um die Gründe für die Skepsis der Kunden zu verstehen, haben wir mit einer Software eine große Anzahl an Leser-Kommentaren auf großen amerikanischen Webseiten wie MacRumors und 9to5Mac (und weiteren) ausgewertet. Die Software extrahierte und zählte die dort genannten Vorbehalte, sodass wir die wichtigsten Argumente identifizieren konnten. Natürlich haben wir auch die positiven Bewertungen berücksichtigt. In der Sendung analysieren wir Chart-Grafiken, die die Gründe für die aktuelle Abwertung der superdünnen Smartphones erläutern. Abschließend diskutieren wir, ob sich diese Situation bald ändern könnte.
Seit Apple den iMac beim Umstieg auf die M-Prozessoren neu gestaltet hat, gibt es nur ein einziges Modell: Eine einzige Display-Größe, eine einzige Architektur und damit auch nur einen einzigen Prozessor. Zwar gab es immer wieder Gerüchte, Apple wolle wieder mehr Auswahl ermöglichen. Aber diese Gerüchte waren substanzlos. Nun sind jedoch erste Hinweise aufgetaucht, die zumindest auf zusätzliche Prozessoren deuten, die mehr Leistung bieten. Das wäre für sich genommen schon interessant. Aber es könnte zudem auf weitere Display-Größen hinweisen, die eine bessere GPU erfordern. Davon unabhängig sind Spekulationen um einen regelrechten »iMac Pro«, wie es ihn noch zu Intel-Zeiten gab. Gibt es Hinweise darauf?
Live-Sendung fast jeden Sonntag um 19 Uhr mit zahlreichen Themen, Live-Chat und Votings. Login ab 18:50 Uhr, Start um 19 Uhr. Wiederholung der Beiträge im Archiv.