Tesla kauft Startup DeepScale
Trotz gehöriger Image-Rückschläge nach schlimmen Unfällen gibt Tesla im Kampf ums autonome Fahren nicht auf. Jetzt haben die Amis ein Bildverarbeitungs-Startup gekauft.
Tesla-Boss Elon Musk würde so gern vollautonom fahrende Autos anbieten – deshalb drückt er bei seinen diesbezüglichen Ankündigungen und bei der Entwicklung auf die Tube. Bisher hat der amerikanische Elektroauto-Pionier allerdings nur ein zwar teures, aber eher unterdurchschnittlich funktionierendes Fahrassistenz-Paket zustande gebracht. Dessen Bezeichnung als Autopilot ist höchstumstritten, fatales Versagen des Systems hat bereits zu mehreren tödlichen Unfällen geführt. Wie immer flüchtete Musk nach vorn, schmiss Nvidia als Entwickler von Prozessoren für teilautonomes Fahren raus und entwickelt jetzt mithilfe eines Ex-Apple-Chipentwicklers einen eigenen Prozessor. Liegt es am ramponierten Image, an der Arbeitsatmosphäre oder an den bescheidenen Aussichten fürs vollautonome Fahren: Im vergangenen Sommer verließ Gruppenleiter Stuart Bowers Tesla, ihm folgten elf weitere auf autonomes Fahren spezialisierte Experten. Durch den beinahe heimlichen Kauf von DeepScale scheint Tesla die entstandenen Kompetenzlücken zumindest teilweise schließen zu wollen.
Neuronale Netzwerke für kleine Prozessoren
Das Startup DeepScale sitzt im kalifornischen Mountain View. Die Firma hat sich auf sogenannte Wahrnehmungstechnologien für autonomes Fahren spezialisiert. Vor allen Dingen geht es dabei um eine schnelle Verarbeitung von Kamerabildern mit Prozessoren, deren Rechenpower vergleichsweise gering ist – solche Prozessoren kommen vorzugsweise in mobilen Systemen wie Smartphones oder eben Autos zum Einsatz. Dem ergänzenden Geschwindigkeits- und Abstandsmessungs-System LIDAR (light detection and ranging) hatte Musk überraschender Weise Anfang des Jahres abgeschworen. DeepScale beschäftigt sich vor allen Dingen mit einer Verbesserung der Recheneffizienz und der Arbeit mit sogenannten Tiefen Neuronalen Netzwerken. Berkeley-Professor Kurt Keutzer und sein Doktorand Forrest Iandola gründen DeepScale 2015. In einer ersten Finanzierungsrunde kamen 15 Millionen Dollar zusammen, zu den Geldgebern gehörte unter anderem Siemens. Chef des Unternehmens ist Iandola, in seiner Zeit als Student an der University of California, Berkeley entwickelte er mit SqueezeNet ein tiefes neuronales Netzwerk für Smartphones. Jetzt gab Iandola über sein LinkedIn-Profil bekannt, dass er als leitender Wissenschaftler für autonomes Fahren bei Tesla arbeitet.
Tesla ständig auf Einkaufstour
Laut dem US-Nachrichtensender CNBC hat Tesla DeepScale vollständig gekauft. Der Sender beruft sich dabei auf zwei Insider, die ungenannt bleiben und keine weiteren Details preisgeben wollen. Auf Anfragen bezüglich des Kaufs reagiert Tesla aktuell nicht. Tesla kauft ständig kleinere Unternehmen auf. Erst kürzlich ging mit Maxwell Technologies ein kalifornisches Startup für die Entwicklung von Superkondensatoren und Festkörperakkumulatoren in Tesla auf, 2016 schnappte sich der Autohersteller mit SolarCity einen ebenfalls aus Kalifornien stammenden Solaranlagen-Entwickler.
Teslas steiniger Weg zum autonomen Fahren
Gäbe es einen Beziehungsstatus fürs autonome Fahren, dann würde dort „Es ist kompliziert“ stehen. Dauerhaft. Das Thema ist technisch kaum zu erfassen und Sachen Kommunikation ein echtes Minenfeld. Vor allem aber ist es inzwischen so zäh wie alter Kaugummi. Seit Jahren versprechen Startups und Visionäre, dass jetzt ganz bald autonome Autos Realität werden. Das hat bislang eigentlich nur die Google-Tochter Waymo geschafft. Zumindest ein bisschen. Und dann kommt im April 2019 Elon Musk mit seinem „ Autonomy Day“ um die Ecke und erzählt den verblüfften Analysten, dass Tesla heimlich still und leise einen eigenen Computer entwickelt hat, der bereits in aktuelle Fahrzeuge eingebaut wird und mit dessen Hilfe bis 2020 eine autonome Robotaxi-Flotte an den Start gebracht werden soll.
Natürlich ist es nicht so, dass eine von Elon Musk kommunizierte Jahreszahl in Stein gemeißelt ist. Der große Elektro-Lkw wurde gerade um ein schlappes Jahr verschoben, beim Model X war der Verzug ähnlich lange. Viel wichtiger als der Faktor Zeit ist aber die Tatsache, dass Elon Musk mit den aktuellen Tesla.Fahrzeugen autonom fahren will. Warum ist das so erstaunlich? Weil fast der komplette Rest der Autonomie-Entwickler bislang nicht davon ausgeht, dass man mit den in einem Tesla verbauten Sensoren sicher autonom fahren kann.
Nur Tesla verzichtet auf LiDaR – zu recht?
Egal ob Model S, Model X, Model 3 oder Model Y: Alle Tesla rollen mit 8 Kameras, 12 Ultraschall-Sensoren und einem nach vorne gerichteten Radar-System vom Band. Klingt viel, ist aber verglichen mit dem Aufwand, den zum Beispiel Waymo treibt, ziemlich überschaubar. Je nach Setup kommen dort zusätzliche Kameras, ein zweites Radarsystem und mindestens drei LiDaR-Sensoren zum Einsatz. LiDaR steht für „Light Detection and Ranging“ und ist eine mit dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung. Statt der Radiowellen werden allerdings gepulste Laserstrahlen verwendet. Das von einem Objekt zurückfallende Licht des Lasers lässt Rückschlüsse auf dessen Geschwindigkeit und seine Position zu. Die Bilder, die der Bordcomputer aus den LiDaR-Daten zusammensetzt, haben den Vorteil, dass sie einen bunt gepixelten dreidimensionalen Raum erzeugen, in dem sich das Fahrzeug orientieren kann. In Kombination mit Kamerabildern, Laserdaten und Ultraschall-Informationen entsteht so ein sehr detailgenaues Bild der Fahrzeug.mgebung. Die Kehrseite der Medaille: Unfassbare Datenmengen und hohe Hardware-Kosten. Dennoch hat sich bei Waymo, BMW, Baidu und fast allen anderen Entwicklern die Kombination aus Kamera, Ultraschall, Radar und LiDaR als Standard durchgesetzt.
Und genau deshalb hatten viele Tesla beim Thema autonomes Fahren nicht mehr wirklich auf dem Zettel. Kein LiDaR, kein autonomer Tesla. So einfach ist das. Nicht. Denn Elon Musk hält LiDaR für eine Schnapsidee. Zumindest wenn’s ums autonome Fahren geht. „LiDaR in Autos ist dumm. Es ist teuer, unnötig und wertlos! Auch alle anderen werden sich von LiDaR verabschieden!“, polterte Musk im Rahmen des Autonomy Days im April 2019. Musk und seine Mitstreiter sind davon überzeugt, dass ein Tesla auch ganz ohne LiDaR sicher autonom fahren kann. „Der gesamte Verkehr ist auf Visualität ausgelegt!“, erklärt Andrej Karpathy, der bei Tesla den Bereich für künstliche Intelligenz (KI) leitet. „Die Daten, die LiDaR liefert, sind dafür viel zu grob!“. Dennoch steht auch Tesla vor der Herausforderung, das sich das Fahrzeug in einem dreidimensionalen Raum orientieren muss.
Den liefert LiDaR frei Haus. Tesla aber (und zum Beispiel das englische Startup Wayve) nutzt auch dafür die in den Autos verbauten Kameras. „Tiefe zu erkennen funktioniert ja auch beim Menschen über die Augen und nicht über Laserstrahlen!“, betont Karpathy. Und was ist bei Regen, Schnee, Nebel oder Dunkelheit? „Da hilft auch LiDaR nichts. LiDaR ist ein optisches System, das bei widrigen Bedingungen an seine Grenzen stößt.“ Tesla setzt in diesen Fällen vor allem auf Radarwellen, die im nicht sichtbaren Spektrum keine Probleme mit schlechter Sicht haben. Gemeinsam mit dem, was die Kameras an Daten liefern, ist es dem System laut Tesla möglich, den „drivable Space“ selbst unter widrigsten Bedingungen zu erkennen.
Tesla mit eigenem Chip, Netzwerk und vielen Kilometern
Neben der Kombination aus Kameras, Radar und Ultraschall setzen Musk und Karpathy vor allem auf den neuen FSD-Computer, der von Hardware-Experte Pete Bannon entwickelt wurde. Herz des neuen Tesla.Computers sind zwei leistungsfähige Chips, die die neuronalen Netze im Fahrzeug betreiben. Neben der puren Rechenpower sieht sich Tesla vor allem beim Training der neuronalen Netzwerke im Vorteil. „ Je mehr Daten neuronale Netze zur Verfügung haben, desto genauer und besser können sie arbeiten!“, betont KI-Experte Karpathy.
Entscheidend ist dabei die Größe der weltweiten Tesla.Flotte. 500.000 Tesla. fahren pro Tag ungefähr 24 Millionen Kilometer und sammeln dabei Daten. Zum Vergleich: Waymo kommt insgesamt auf gut 24 Millionen autonom gefahrene Test-Kilometer. Wichtig: Jeder Tesla sammelt Daten. Auch die Fahrzeuge, die noch mit den „alten“ NVIDIA-Computern unterwegs sind. Heißt: Trifft ein Tesla auf eine Situation, einen Gegenstand oder ein Hindernis, das er noch nicht kennt, schickt er ein Foto, bzw. ein Video der Situation an die zentrale Tesla.KI. Dort werden diese Situationen im Zweifel von Menschen bewertet und so für alle anderen Tesla. aufgelöst.
Dieses so genannte „Labeling“ ist für alle Unternehmen teuer, die am autonomen Fahren forschen. Vorteil für Tesla. wieder die Masse. Weil so viele Tesla Daten sammeln, können die meisten Objekte und Situationen inzwischen automatisiert gelabelt werden. Der Fokus für die Tesla.Experten liegt deshalb jetzt auf seltenen Objekten, auf die man nur stößt, wenn man wirklich viele Autos auf der Straße hat. Tiere auf der Fahrbahn, zum Beispiel. Oder ein nach einem Unfall auf dem Dach liegendes Fahrzeug.