Alle Verbraucherelektronikprodukte sind Werke im Fortschritt. Dies ist die Natur des Aktualisierungszyklus. Alle ein oder zwei Jahre erscheint ein neues Gerät mit neuen Funktionen und fordert Sie zum Upgrade auf. Sie haben sicherlich bemerkt, wie Geräte nach ein paar Jahren altern. Aus Sicht des frühen Anwenders altern sie wie eine gute Milch.
Das iPhone ist genauso anfällig für dieses Phänomen wie jedes andere Gerät. Einige führen es auf erzwungene Veraltung zurück, und darin steckt wahrscheinlich etwas Wahrheit. Mehr als alles andere ist es jedoch ein Produkt des ständigen Trommelfeuers von Funktionsupgrades. Aber trotz der FOMO, die durch das Nicht-Upgrade entsteht, ist die Wahrheit, dass die überwiegende Mehrheit der neuen Veröffentlichungen iterativ ist. Jedes Gerät ist ein Zwischenstopp zur neuesten Generation.
Auf dem letzten „Glowtime“-Event in Cupertino vorgestellt, nimmt die iPhone 16-Reihe derzeit eine Art liminaren Raum ein. Das Hauptmerkmal der Geräte ist die Hinzufügung von Apple Intelligence, einer hauseigenen generativen KI-Plattform, die darauf abzielt, die iOS-Benutzererfahrung zu verbessern. Vorher konnten nur iPhone 15 Pro-Modelle die Funktion nutzen, was auf die Einschränkungen der früheren Apple-Siliziumchips zurückzuführen ist.
Analysten haben vorgeschlagen, dass Apples Antwort auf ChatGPT und Gemini ausreicht, um einen „Supercycle“ anzustoßen, obwohl der gestaffelte Rollout von Apple Intelligence wahrscheinlich einen Anstieg der Verkäufe ähnlich dem verhindern wird, den das Unternehmen mit seinem ersten 5G-Handy sah. Ich würde hinzufügen, dass es Apple Intelligence an dem Wow-Effekt fehlt, den die Menschen beim ersten Mal verspürten, als sie einen Eingabeprompt in GPT eingaben. Zum einen spielen Early Adopter bereits seit einiger Zeit mit Text- und Bildgeneratoren herum.
Zum anderen ist Apple Intelligence subtil durch Design. Wie ich nach seiner Ankündigung auf der WWDC im Juni schrieb, basiert die Plattform auf kleinen Modellen, im Gegensatz zu den riesigen „Black Box“-Neuralen Netzwerken, die andere GenAI-Systeme antreiben. Die Idee hinter Apples Ansatz ist es, bestehende Produkte zu stärken, wie z.B. Zusammenfassungen und Nachrichtengenerierung für Mail und verbesserte Objekterkennung für Fotos.
Das Unternehmen hat mit dem Rollout von Apple Intelligence einen schwierigen Drahtseilakt zu vollführen. Da Analysten spekuliert haben, wie weit Apple im Vergleich zu OpenAI und Google aufholen musste, fühlte sich das Unternehmen verpflichtet, mit seiner WWDC-Ankündigung Eindruck zu machen. Es möchte, dass Verbraucher den Namen Apple Intelligence erkennen, sofern dieser den Geräteverkauf vorantreibt.
Wie bei seinen Vorgängern wird das andere Überschriftmerkmal des iPhone 16 durch sein Kamerasystem geliefert. Dies ist jedoch in einem entscheidenden Punkt anders. Zum zweiten Mal in Folge hat das berühmt minimalistische Apple eine physische Taste hinzugefügt. Während das iPhone 15 die Aktionstaste der Apple Watch Ultra-Linie übernimmt, erinnert die Kamera-Steuerung an die Tage vergangener Geräte.
Es ist jedoch mehr als nur eine Taste zum Öffnen der Kamera-App und zum Schnappen von Fotos, obwohl es natürlich beides tut. Die Kamera-Steuerung verfügt auch über eine Touch-Oberfläche zum Durchblättern verschiedener Optionen innerhalb der App. Darüber hinaus weist sie auf eine Zukunft hin, in der die KI vollständig in die Fasern des iPhones eingewoben ist.
Die Funktion wird ein Schlüsselelement der Visuellen Intelligenz, einer Art KI-gesteuerten erweiterten Realitätsfunktion, die häufig mit Google Lens verglichen wird. Aber wie bei anderen Teilen von Apples KI-Strategie wird die Funktion nicht bei der Markteinführung des iPhone 16 verfügbar sein, sondern erst im Laufe dieses Jahres in Beta-Form erscheinen.
Verfügbarkeit von Apple Intelligence
Ein gestaffelter Rollout ist nicht das einzige Problem von Apple Intelligence, das dem iPhone 16 und einem Supercycle im Weg steht. Ein weiteres Hauptproblem ist die Verfügbarkeit. Zumindest zum Zeitpunkt der Markteinführung wird die Plattform in der Europäischen Union und in China blockiert sein.
„Aufgrund der rechtlichen Unsicherheiten, die sich aus dem Digital Markets Act ergeben, glauben wir nicht, dass wir dieses Jahr drei dieser [neuen] Funktionen — iPhone Mirroring, SharePlay Screen Sharing-Verbesserungen und Apple Intelligence — an unsere EU-Benutzer ausrollen können“, sagte das Unternehmen der Financial Times.
Die chinesische Version von Apple Intelligence wird voraussichtlich im Jahr 2025 veröffentlicht. Wie der South China Morning Post feststellte, ist nicht vollständig klar, ob die Regulierung der generativen KI ihr Erscheinen in der Volksrepublik China verbietet. Das betrifft einen großen Teil der Kundenbasis von Apple, die zumindest nicht auf den größten Verkaufsargument des iPhone 16 zugreifen können.
Die Nachrichten sind hier in den USA rosiger, wo Apple Intelligence als Teil des iOS 18.1-Rollouts verfügbar sein wird. Ich habe die Entwickler-Beta der Software getestet. Obwohl sie kurz vor der Veröffentlichung steht, bin ich auf ein paar Beta-Bugs gestoßen, auf die ich hier nicht eingehen werde.
Ich möchte jedoch darauf hinweisen, dass Apple Intelligence optional ist. Das ist positiv; Es gibt viele Gründe, skeptisch zu sein über die generative KI im Moment, und etwas optional zu machen, anstatt es standardmäßig zu aktivieren, ist im Allgemeinen der richtige Schritt. Es gibt jedoch die leichte Unannehmlichkeit, die Funktion manuell in den Einstellungen einschalten zu müssen. Aber die Welt geht davon nicht unter.
Einige Funktionen können auch bei deaktiviertem Apple Intelligence aktiviert werden. „Clean Up“, Apples Antwort auf Googles „Magic Eraser“-Fotobearbeiter, ist eine dieser Funktionen. Du findest es immer noch in der Fotos-App, obwohl du es das erste Mal benötigst, wenn du es verwendest, einen separaten Download. Wir werden tiefer in die Funktion im folgenden Kamerabschnitt eingehen.
Schreibwerkzeuge
Schreibwerkzeuge werden die verbreitetste Form von Apple Intelligence sein, die zum Start verfügbar ist. Sie können über eigene Apps wie Pages und Mail aufgerufen werden. Drittanbieter-Entwickler werden auch darauf zugreifen können.
Wenn Sie bereits Zeit mit Plattformen wie ChatGPT verbracht haben, ist klar, warum dies als erster Schritt in die GenAI-Welt Sinn macht. Diese Plattformen sind sehr gut darin geworden, Text zu generieren, daher ist dies ein relativ leichter Schritt.
Die Funktion wird durch Auswahl von Text und Tippen auf Schreibwerkzeuge im Popup-Menü aufgerufen. Daraufhin wird am unteren Bildschirmrand ein weiteres Menü angezeigt, das die folgenden Optionen anbietet: Korrekturlesen, Umschreiben, Freundlich, Professionell, Kurz, Schlüsselpunkte zusammenfassen und Tabelle auflisten.
Ich habe als Experiment einen Text aus einer Apple-Geschichte genommen, die ich neulich geschrieben habe:
Original
Die US-amerikanische Food and Drug Administration hat am Montag die Genehmigung für die Erkennung von Schlafapnoe auf der Apple Watch Series 9, Serie 10 und Watch Ultra 2 veröffentlicht. Das grüne Licht kommt vier Tage vor dem Veröffentlichungsdatum der Serie 10 am 20. September. Das Feature, das auf dem letzten iPhone 16-Event angekündigt wurde, wird als Teil des bevorstehenden watchOS 11-Updates erscheinen. Nach Aktivierung benötigt es 10 Nächte von Schlafverfolgungsdaten, die über einen Zeitraum von 30 Tagen verteilt sind, um festzustellen, ob ein Benutzer die Bedingung haben könnte. Während dieser Zeit bietet es auch Einblicke in nächtliche Schlafstörungen unter Verwendung des im Gerät integrierten Beschleunigungssensors.
Freundlich
Die US-amerikanische Food and Drug Administration erteilte am Montag die Genehmigung zur Erkennung von Schlafapnoe auf der Apple Watch Series 9, Serie 10 und Watch Ultra 2. Diese Nachricht kommt nur vier Tage vor dem Veröffentlichungsdatum der Serie 10 am 20. September. Erinnern Sie sich an das Feature, über das wir letzte Woche beim iPhone 16-Event gesprochen haben? Es kommt endlich als Teil des bevorstehenden watchOS 11-Updates heraus. Sobald Sie es aktivieren, benötigt es 10 Nächte von Schlafverfolgungsdaten über einen Zeitraum von 30 Tagen, um herauszufinden, ob Sie Schlafapnoe haben könnten. Während dieser Zeit erhalten Sie auch Einblicke in nächtliche Schlafstörungen, dank des Beschleunigungssensors an Ihrer Uhr.
Professionell
Die Food and Drug Administration (FDA) der USA hat die Erkennung von Schlafapnoe auf der Apple Watch Series 9, Serie 10 und Watch Ultra 2 genehmigt. Diese Genehmigung erfolgt vier Tage vor dem geplanten Veröffentlichungsdatum der Serie 10 am 20. September. Das Feature, das auf dem letzten iPhone 16-Event vorgestellt wurde, wird in das bevorstehende watchOS 11-Update integriert. Bei Aktivierung benötigt die Schlafapnoe-Erkennungsfunktion 10 Nächte von Schlafverfolgungsdaten, die über einen Zeitraum von 30 Tagen verteilt sind, um das Vorliegen von Schlafapnoe zu bestimmen. In dieser Zeit bietet sie auch Einblicke in nächtliche Schlafstörungen unter Verwendung des im Gerät integrierten Beschleunigungssensors.
Konzise
Die FDA hat die Erkennung von Schlafapnoe auf der Apple Watch Series 9, 10 und Ultra 2 genehmigt. Das Feature, das auf dem iPhone 16-Event angekündigt wurde, wird Teil von watchOS 11 sein und erfordert 10 Nächte von Schlafverfolgungsdaten über 30 Tage, um festzustellen, ob ein Benutzer Schlafapnoe hat. Es bietet auch Einblicke in nächtliche Schlafstörungen mit dem Beschleunigungssensor.
Zusammenfassung
FDA genehmigt Erkennung von Schlafapnoe auf Apple Watch Series 9, Serie 10 und Watch Ultra 2, Veröffentlichungsdatum 20. September.
Schlüsselpunkte
• Schlafapnoe-Erkennung: FDA genehmigt Erkennung von Schlafapnoe auf Apple Watch Series 9, Serie 10 und Watch Ultra 2.
• Anforderung: 10 Nächte von Schlafverfolgungsdaten über 30 Tage, um mögliche Schlafapnoe festzustellen.
Liste
• Die US-amerikanische Food and Drug Administration (FDA) hat die Erkennung von Schlafapnoe auf der Apple Watch Series 9, Serie 10 und Watch Ultra 2 genehmigt Die Genehmigung erfolgt vier Tage vor dem geplanten Veröffentlichungsdatum der Serie 10 am 20. September.
• Das Feature wird als Teil des watchOS 11-Updates verfügbar sein.
• Um festzustellen, ob ein Benutzer Schlafapnoe haben könnte, benötigt die Funktion 10 Nächte von Schlafverfolgungsdaten, die über einen Zeitraum von 30 Tagen verteilt sind.
• In dieser Zeit bietet die Funktion auch Einblicke in nächtliche Schlafstörungen.
Wie Sie sehen können, sind die Änderungen in den Schreibstil-Umschreibungen größtenteils subtil, aber einige Umgangssprache, wie z.B. „Erinnern Sie sich an das Feature, über das wir letzte Woche beim iPhone 16-Event gesprochen haben?“, in der freundlichen Version.
Wie jemand, der den Schreibprozess mag, werde ich die Stiloptionen nicht nutzen. Ich kann jedoch verstehen, dass Zusammenfassung/Schlüsselpunkte eine nützliche Funktion für lange E-Mails sein können. Liste fühlt sich ehrlich gesagt einfach nur so an, als ob jemand den bestehenden Text mit Aufzählungszeichen getrennt hat, was im Allgemeinen weniger nützlich ist.
Die Funktion enthält außerdem Daumen-hoch- und Daumen-runter-Symbole für jeden der Umformulierer, um die Schreibwerkzeuge im Laufe der Zeit besser und intelligenter zu machen.
Apple Intelligence und Siri
Siri ist der andere Ort, an dem Menschen höchstwahrscheinlich mit Apple Intelligence interagieren werden. Dies ist zweifellos die größte Überholung in den 13 Jahren, seit Apple den intelligenten Assistenten eingeführt hat.
Die Etablierung von generativer KI hätte nicht zu einem besseren Zeitpunkt für die geplagte Welt der intelligenten Assistenten kommen können. Es könnte sich durchaus als die Überladung erweisen, die sie brauchen. Google hat bereits begonnen zu zeigen, wie Gemini seine Assistenten antreiben wird, und Amazon wird voraussichtlich dasselbe mit Echo in den nächsten Monaten tun.
Das Makeover von Siri beginnt mit einem grundlegenden Redesign der Benutzeroberfläche. Der vertraute kleine leuchtende Orb ist verschwunden. An seiner Stelle befindet sich ein leuchtender Rand, der den gesamten Bildschirm umgibt, wenn Sie den Assistenten aufrufen.
Es gibt eine lustige kleine Animation, die den Bildschirm ein wenig zittern lässt, während der gesamte Text unverdeckt bleibt. Mir gefällt die neue Benutzeroberfläche: Es ist eine subtile, aber deutlich sichtbare Möglichkeit zu kennzeichnen, dass das Telefon zuhört.
Wie bei den meisten Implementierungen von Apple Intelligence geht es bei dem neuen Siri darum, vorhandene Erfahrungen zu verbessern. Das bedeutet, Siri nach spezifischen Aufgaben auf Ihrem Telefon fragen, z.B. das Eintragen von Medikamenten in der Gesundheits-App. Für diejenigen von uns, die oft über Wörter stolpern, ist der Assistent auch besser geworden, um Ihre Absicht zu bestimmen.
Wie bei anderen Teilen von Apple Intelligence werden einige der besten neuen Funktionen von Siri in zukünftigen iOS-Updates kommen. Dazu gehören Dinge wie erhöhte Kontextsensibilität, basierend auf früheren Anfragen und dem, was auf dem Bildschirm zu sehen ist.
Photographische Intelligenz
Wie oben erwähnt, ist Bereinigen eine von nur wenigen Apple Intelligence-Funktionen, die ohne die vollständige