Der Babelfisch im Ohr: Apples Live-Übersetzung ausprobiert
Um die Verständigung mit unterschiedlichsten Völkern und Alien-Rassen zu ermöglichen, greift man im Sci-Fi-Genre gerne auf einen "Universal Translator" zurück - bei "Per Anhalter durch die Galaxis" ist es gar ein kleiner Babelfisch im Ohr, der alle gesprochenen Sprachen beherrscht. In der Realität hat Apple vor Kurzem ein Feature in Europa freigeschaltet, das Gesprochenes in Echtzeit übersetzt. Voraussetzung sind neuere AirPods- und iPhones-Modelle mit Apple Intelligence an Bord.
Bei der Live-Übersetzung wird das Gesagte des Gegenübers direkt in der eingestellten Sprache des AirPod-Trägers abgespielt. Dabei findet die Übersetzung auf dem gekoppelten iPhone mit iOS 26.2 statt und erscheint zusätzlich auf dem Display als Transkription. Aktuell werden die Sprachen Chinesisch, Deutsch, Englisch, Französisch, Italienisch, Japanisch, Koreanisch, Portugiesisch und Spanisch unterstützt, teils in unterschiedlichen Ausführungen.
Allerdings sollten die jeweiligen Sprachmodelle - zu finden unter "Einstellungen" und dem Namen der AirPods - zuvor heruntergeladen werden. Anschließend erfolgt die Übersetzung in der App "Übersetzen" lokal, sodass keine Internetverbindung mehr notwendig ist. Am besten erledigen Sie diesen Schritt im heimischen WLAN, die Pakete rangieren mitunter im Gigabyte-Bereich.
Wie damals auf Gottschalks Couch
Bereits seit 4. November konnten Entwickler, die an Apples Beta-Software-Programm teilnehmen, die Live-Übersetzung über Apples Developer-Programm testen. Am 12. Dezember wurde die Funktion per iOS-Software-Update auf alle EU-iPhones ausgerollt. Ein zusätzliches Firmware-Update für die AirPods ist nicht nötig.
Und was soll man sagen? Es funktioniert, erfordert aber Geduld. Vielleicht erinnern Sie sich an Thomas Gottschalks Gespräche mit internationalen Gästen auf der "Wetten, dass..?"-Couch, bei denen die Simultandolmetscher nicht zwingend Wort für Wort, sondern sinngemäß zusammenfassten. So ähnlich ist's mit Apples Live-Übersetzung. Die Software hört zunächst zu und beginnt die Übersetzung erst, wenn sie einen Satzzusammenhang erkannt hat, den sie dann mit der (leider) stoisch-monotonen Siri-Stimme vorträgt. Erst dann kann man selbst reagieren und antworten - was beim Gegenüber wiederum mit Verzögerung übersetzt wird.
Zugegeben, ein flüssiger Dialog ist das noch nicht, ein Anfang allerdings schon. Dank der Technik ist man nun in der Lage, den Ausführungen seines Gegenübers in völlig fremden Sprachen zu folgen und ein zumindest brauchbares Ergebnis zu bekommen. In einer ruhigen Umgebung liegt die KI-Übersetzung oft richtig. Probleme entstehen eher bei typisch menschlichen Einschüben und Gedankenblitzen, die die Satzstruktur umwerfen. Auch bei hektischen Dialogen mit mehreren Gesprächspartnern kommt die Software rasch ins Straucheln, weil Zusammenhänge und einzelne Begriffe falsch interpretiert oder zugeordnet werden. Das mag bei Party-Smalltalk noch ganz amüsant sein, sollte aber vielleicht berücksichtigt werden, wenn Sie im Urlaubsland eine Bestellung aufgeben oder der Polizei den Vorgang eines Auffahrunfalls erklären wollen ...
Auf diesen Geräten ist die Live-Übersetzung verfügbar
Die noch mit dem Beta-Status versehene Live-Übersetzung funktioniert mit allen AirPods-Modellen, die mit Apples H2-Chip ausgestattet sind. Dazu zählen neben den 2025 vorgestellten AirPods Pro 3 auch die AirPods Pro 2 mit Lightning oder USB-C sowie die AirPods 4 mit ANC. Die Powerbeats Pro 2 von Apples Tochterfirma Beats erhalten die Live-Übersetzung allerdings nicht, obwohl sie mit dem H2-Chip ausgestattet sind.
Die Funktion ist nur auf iPhones verfügbar, die auch Apple Intelligence beherrschen. Dazu gehören derzeit das iPhone 15 Pro (Max), das 16e sowie alle iPhones der 16er- und 17er-Reihe. Auf Macs oder iPads gibt es die Live-Übersetzung mit AirPods noch nicht. Die Live-Übersetzung hat Apple allerdings auch in die Videochat-App FaceTime, die Telefonie-App und die Nachrichten-App eingebaut.
Konkurrenz durch Google
Android-User und Besitzer anderer Bluetooth-Kopfhörer müssen sich allerdings nicht grämen: Google will seine Live-Übersetzung auf Basis des KI-Modells Gemini für ein breites Publikum fernab der eigenen Hardware-Lösungen zugänglich machen. Es soll Redewendungen und umgangssprachliche Ausdrücke beherrschen und obendrein den Tonfall, die Betonung und die Sprachmelodie des Sprechers beibehalten. Bislang ist das Feature nur in den USA, Mexiko und Indien freigeschaltet, soll 2026 aber für weitere Märkte erfolgen und auch auf iOS-Geräten funktionieren.