Willkommen bei einer neuen Folge des Drive.AI-Podcast, der Podcast, wenn es um das Thema autonome Fahren hier in Deutschland, DACH-Region, aber auch in den USA und China geht. Wir versuchen aufzuklären, was es mit dem autonomen Fahren auf sich hat, was der Stand der Technik ist und wohin die Reise gehen kann.
In dieser Folge habe ich Marian Gläser, CEO und Co-Founder von Brighter.AI zu Gast, der sich einem speziellen Thema angenommen hat, und zwar dem Umgang mit der DSGVO beziehungsweise mit der datenschutzgerechten Aufarbeitung von Daten, die natürlich im Umfeld des autonomen Fahrens eine immens wichtige Rolle haben. Im Detail versteht er es natürlich wesentlich besser herüberzubringen als ich. Insofern gehen wir direkt rein in die Folge mit Marian. Viel Spaß damit!
Gerne kannst du uns auch Fragen zum autonomen Fahren per Mail zukommen lassen, welche dich im Alltag beschäftigen. Die Antwort darauf könnte auch für andere Hörer des Podcasts von Interesse sein. Wie immer gilt: Über Kritik, Kommentare und Co. freuen wir uns. Also gerne melden, auch für die bereits erwähnten Themenvorschläge. Und über eine positive Bewertung beim Podcast-Anbieter deiner Wahl freuen wir uns natürlich auch sehr! Vielen Dank.
Transkript zu: Brighter.AI als Beschleuniger beim „Race to Autonomy“
Sebastian
Hi Marian, vielen Dank, dass du dir heute die Zeit nimmst, dass wir uns ein wenig über Brighter.AI, dein Start-up, unterhalten, das auch so eine gewisse Verbindung zum autonomen Fahren hat. Vielleicht nicht, wie man es auf den ersten Blick vermutet, aber das werden wir jetzt gemeinsam herausfinden.
Bevor wir da allerdings einsteigen und mehr über Brighter.AI und eure Produktlösungen erfahren, stelle dich doch gerne mal selbst vor und wie deine Verbindungen zur Welt des autonomens Fahren sind.
Marian Gläser
Freut mich, hier zu sein, Sebastian. Und genauso wie du sagst, nicht ganz offensichtlich. Ich fange mit mir an. Marian Gläser, Co-Founder und CEO von Brighter.AI. Wir sind 2017 gegründet, also das heißt auch schon nicht mehr ganz neu auf der Straße.
Und die Verbindung zum autonomen Fahren, auch wenn sie nicht offensichtlich ist, ist tatsächlich extrem stark. Also das sind von unseren Kunden, die wir aktuell haben, ich würde sagen, 60 bis 70 % verwenden unsere Lösung fürs autonome Fahren.
Die spannende Frage ist – jeder, der sich Brighter.AI schon mal angeschaut hat oder uns vielleicht kennt, wir haben eine Datenschutz-Lösung. Das heißt, wir anonymisieren Bild- und Videodaten, speziell gesammelt aus dem öffentlichen Bereich, aus dem öffentlichen Raum. Das heißt, Gesichter und Nummernschilder, die man auf der Straße sieht, sind datenschutzrelevant.
Sozusagen das, was man klassischerweise online hat, die ganzen „Cookies accept“ und darf man die Daten speichern und aufnehmen, das hat man in der Öffentlichkeit nicht. Kein Zulieferer, kein Hersteller kann mit einer Horde an Klemmbrettern um das Fahrzeug herum irgendwie diese Einwilligung bekommen.
Das heißt, die Industrie – und so haben wir dann 2018 uns dann auch spezialisiert – hat ein Spagat, den sie erfüllen müssen, nämlich einerseits für das autonome Fahren extrem hohe Datenmengen, die gesammelt werden müssen und andererseits den Datenschutz, der damit dann ein herkommt.
Ganz kurz – und wir reden da ja später noch mal drüber – wir anonymisieren diese Bilddaten, die Gesichter und Nummernschilder auf einer Art natürlichen Weise. Das heißt, die Gesichter und Nummernschilder sehen danach weiterhin aus wie Gesichter und Nummernschilder. Beispielsweise du, Sebastian, würdest relativ ähnlich deiner Gestalt noch aussehen, aber mit einem künstlichen Gesicht.

Warum ist das so enorm wichtig für das autonome Fahren? Wenn man sich klassische Verpixelung anschaut, dann sieht man aus dem Gesicht, aus der Person, nur noch einen geringen Teil der Informationen. Und gerade, wenn sich ein Fahrzeug auf der Straße befindet und verstehen möchte, wie ein Passant, wie eine Person, die auf das Fahrzeug zuläuft, sich zukünftig verhalten wird, dann braucht man die Blickrichtung. Man braucht die Emotion von dieser Person.
Dann passiert das, dass ein klassisches Blurring dafür einfach nicht mehr ausreicht. Und der zweite Fakt und der ist sehr, sehr technischer Natur. Beim Machine Learning und unser CTO, wir sind ja auch ein KI-Start-up, ein AI-Start-up, unser CTO sagt immer: Die Daten müssen so natürlich, so roh wie möglich sein, am besten so wie Sushi.
Wenn man jetzt eine Verpixelung benutzt, dann sehen die Daten danach nicht mehr natürlich aus. Das ist nicht mehr so roh wie Sushi, sondern das hat dann Artefakte, nämlich Verpixelung. Und das führt dann am Ende dazu, dass die neuronalen Netze bei einem Training, bei einer Anwendung dann auch sowas wie einem autonomen Fahren halt nicht mehr zu 100 %, zu 99 % akkurat sind, sondern die Qualität dann abfällt.
Und wenn wir eins nicht wollen, dann ist das ein Verlust der Sicherheit der Systeme aufgrund von einem Datenschutz und um aber trotzdem den Datenschutz als guten Wert für Europa zu erhalten und auch vorwiegend die Firmen rechtlich abzusichern, haben wir diese Lösung gebaut.
Sebastian
Vielen Dank schon mal für die Ausführung, dass wir da ein Stück weit jetzt mehr gelernt haben. Ich meine, gerade das Thema Datenschutz, so wie du es schon ausgeführt hast, ich kenne das jetzt eher aus der Ecke von Software-Webseite, wo immer mehr Wert draufgelegt und wo immer sicherer gestaltet wird für die Besucher*innen, die bei uns eben vorbeischauen. Und hatte das bei dem autonomen Fahren gar nicht so auf dem Schirm.
Aber klar, wie du sagst, die Datenmengen werden immer mehr, immer höher, damit auch die Datenqualität dann hinten raus, für das autonome Fahren sicherer wird. Wie kommt man denn auf die Idee, so ein Thema anzugehen? Ganz ehrlich, also was ist denn so deine Basis dafür? Warst du vorher schon in dem Umfeld unterwegs und ihr habt euch gedacht, das wäre doch sinnvoll? Oder, ja, also ich wüsste jetzt gar nicht, wie ich da draufkomme.
Marian Gläser
Das ist eine spannende Frage und dann muss ich, um das zu beantworten, tatsächlich fünf Jahre zurückgehen. Aber keine Angst, das wird trotzdem relativ schnell und kurz zusammengefasst.
Wir haben eigentlich mit einer anderen Lösung die Firma gestartet, nämlich aus Nachtsichtkameras ein Tagsicht-Bild zu rekonstruieren, also aus der Nacht einen Tag zu schaffen. Deshalb auch der Name Brighter.AI, weil wir die Welt heller machen.
So und jetzt sind wir damit 2017 gegründet und 2018 zur Einführung der DSGVO wurden im Prinzip alle die Projekte, die wir zu dem Zeitpunkt hatten, so verschiedene Sicherheitsfirmen, die uns Daten geschickt haben für die Nacht-zu-Tagsicht-Rekonstruktion, die ersten automotive Unternehmen, die uns Daten geschickt haben, um neue Fahrerassistenz-Systeme, Nacht-zu-Tagsicht-Rekonstruktion zu entwickeln.
All diese Projekte wurden von dem einen auf den anderen Tag gedrosselt oder gestoppt aufgrund der DSGVO. Und dann haben wir uns so ein wenig am Kopf gekratzt und haben gesagt: Was wir eigentlich machen, ist doch sehr sinnvoll, irgendwie Sensor sozusagen aufbessern, Nachtsichtkameras, denen einen neuen Wert zu geben.
Aber auf der anderen Seite finden wir Datenschutz genauso relevant und es kann ja nicht sein, dass beides jetzt im Konflikt steht. Es muss eigentlich eine Welt geben, wo beides existiert. Und dann haben wir uns überlegt: Was wäre denn nötig, um beides zusammenzubringen? Und es gab zwei Prämissen.
Zum einen, die personenbezogenen Informationen aus diesen Domänen, maßgeblich Gesichter und Nummernschilder, müssen ausreichend geschützt sein. Und Nummer zwei: Es muss fähig sein, danach zu 100 % für Machine Learning zu nutzen, als auch für kritische Anwendung nutzbar zu sein.
Und dann kam relativ schnell der Gedanke: Warum benutzen wir nicht künstliche Gesichter, die aber den gleichen Wert erhalten? Und genau das gleiche auch für Nummernschilder. Keine Artefakte, keine Verpixelung, sondern natürliche Nummernschilder, um das zu überlagern.
Wir haben das dem ersten Kunden von uns damals vorgestellt. Er hat gesagt, er würde sofort das kaufen und nicht nur für unser Projekt, sondern auch er hat 20 andere Projekte, die gerade entschleunigt wurden durch die DSGVO.
Dann haben wir im Herbst 2018 das bei Nvidia auf der europäischen Konferenz gepitcht und wurden von knapp 1.200 Start-ups zum Hottest European Start-up gewählt. Und das muss man sich überlegen. Nvidia, eines der größten Chiphersteller AI-Bereich, relativ großer Pool an sehr, sehr guten Start-ups, die sich da beworben haben.
Und dann mit dem Thema Datenschutz das Hottest European Start-up zu werden, das hatte eine Symbolkraft. Und dann haben wir gesagt, das ist ein Thema, was tatsächlich sehr, sehr relevant ist.
Warum sind wir dabei geblieben? Außer, dass es natürlich sowohl von der Traktion, vom Umsatz, von dem, was wir dann gemacht haben, alles immer schneller wurde, ist, dass wir erkannt haben, dass es eben nicht nur der Automobilbereich ist, der damit kämpft, sondern auch Bereiche wie Smart Cities, die durch Kameras eigentlich beflügelt werden könnten, diese aber aktuell nur für Sicherheitszwecke nutzen können und halt nicht für eine Kommerzialisierung, nicht um Kosten zu reduzieren, als auch neue Angebote zu schaffen.
Die Deutsche Bahn hat im Frühjahr dieses Jahres bei uns investiert. Das sind alles so quasi Bereiche, die auch von Kameradaten leben, aber auch einen hohen Stellenwert an den Datenschutz legen.
Sebastian
Ja, vielen Dank für die Ausführung, Marian. Also vor allem diese Geschichte, klar, Smart City ist jetzt auch wieder was, also im Endeffekt überall da, wo Kameradaten anfallen, ist eure Lösung zielführend, dann die DSGVO einzuhalten beziehungsweise eben auch analog in den USA drüben, GDPR, was es eben da auch an Vorgaben gibt dafür.
Ich hielt es für besonders spannend, als du vorhin gesagt hattest, dass ihr ebendiesen Wandel vollzogen habt. Das spricht ja für euch, dass ihr da ein Problem erkannt habt, das für euch genutzt habt den Umstieg.
Wann wurde euch klar, um da die Verbindung zum autonomen Fahren zu bekommen, dass ihr es dafür nutzen könnt, also für die Datenaufarbeitung?Sind da die Kunden an euch herangetreten, haben gesagt, das wäre doch interessant dafür, um hier unsere Daten aufzubereiten oder habt ihr das dann auch als Geschäftsfeld für euch erkannt, damit man da Vorteile herausziehen kann?
Marian Gläser
Das ging relativ schnell und Schlag auf Schlag. Wir haben dieses Konzept erarbeitet, ursprünglich als wirklich tatsächlich zunächst automotive, aber generische Möglichkeit, Daten zu teilen, Videodaten zu teilen, aufgenommen aus dem Fahrzeug.
Und in dem Moment, in dem wir, dass das erste Mal einem Kunden vorgestellt haben, hat er sofort gesagt, wir sind im Race of Autonomy, Race for the first company to be self-driving. Wir brauchen gerade extrem viele Daten.

Alles, was uns darauf konzentrieren lässt, nämlich dass wir uns aufs autonome Fahren konzentrieren können und nicht um den Datenschutz mit den Datenschutzbeauftragten der einzelnen Bundesländer zu debattieren, keine Sonderlocken im juristischen Wege zu finden, sondern einfach nur unser Kerngeschäft zu verfolgen, hilft uns enorm. Die Lösung brauchen wir.
Und dann war das eigentlich, deshalb sagte ich es auch eingangs, wahrscheinlich 60 % unserer Kunden nutzen das zur Entwicklung des autonomen Fahrens. Ob das für Validierungsdaten sind, ob das für Trainingsdaten sind, ob das für Testdaten sind, ob das dafür ist, die Daten von Europa in die USA zu teilen, von China nach Europa. Das ist ganz, ganz divers, aber ringsum das autonome Fahren.
Sebastian
Und die Daten, die dort eben anonymisiert werden durch euch, die nehmt ihr aber nicht selbst auf, sondern die werden euch zur Verfügung gestellt in unterschiedlichsten Formaten. Ihr lasst eure Software darüber laufen, sozusagen, bereitet die auf und stellt die dann aufbereitet wieder dem Hersteller, dem Zulieferer, der Industrie zur Verfügung.
Marian Gläser
Genau. Ganz simpel, wir haben einen Cloud als auch einen Private Cloud, also für die Firma, die das auf seinem eigenen Rechenzentrum laufen lassen möchte, eine gekapselte Lösung, bei der einerseits , salopp gesagt, die Videodaten reingehen und andererseits wieder herauskommen und danach datenschutzgerecht verwendet werden können. Aber auch noch genauso für Machine Learning.
Und das ist quasi eine Pipeline, die per API angesprochen wird. Und das kommt dem sozusagen einher. Das sind sehr, sehr große Datenmengen. Das heißt, die Lösung ist auch hoch skalierbar. Wir sehen tatsächlich von Kunden, die eine hohe Datenakquise haben, bis zu mehreren hunderten von Stunden pro Woche. Das heißt, da wird ordentlich dann auch auf die Datentube gedrückt.
Sebastian
Es ist ja auch verständlich, weil aus einer Stunde Autofahren oder einer Stunde vorhandener Daten wirst du ja so viel nicht lernen können. Also euer Hersteller, die Industrie dahinter jetzt schlussendlich. Insofern gut, dass eure Lösung damit skalieren kann.
Ich würde jetzt noch mal auf den Punkt gehen, wo du vorhin betont hattest, dass ihr eben ein Stück weit was Anderes macht, also nicht dieses normale Blurring einfach nur macht von den Gesichtern, sondern dass ihr auch die Mimik dann trotzdem ein Stück weit beibehaltet.
Gerade, wo ich es mir vorstelle, wenn jetzt ein Passant über die Straße läuft und auf einmal sieht die Logik, sage ich mal, dahinter nur ein verpixeltes Gesicht, erkennt gar nicht, ob die Person erschrocken ist, ob sie sich freut. Das wird ja auch Punkte dazu führen, dass eure Lösung da wahrscheinlich am Markt die bessere ist, damit eben auch diese Mimik von der autonomen Fahren-Logik dahinter besser verarbeitet werden kann.
Marian Gläser
Ganz genau. Ganz genau, das ist exakt getroffen. Der eine Teil, dass überall da, wo eine Art von Einschätzung der Person passieren muss, wie verhält sich die Person? Hat die Person das Fahrzeug gesehen? Das funktioniert nur, wenn man auch noch ein komplettes Verständnis des Gesichtes hat.
Dann gibt es auch noch sozusagen Extrabereiche, unter anderem das Alter erkennen, sozusagen um zu verstehen, vielleicht auch zusätzliche Informationen bei Kindern, wie wird sich die Person vielleicht unerwartet bewegen et cetera.
Der zweite Teil ist aber dennoch genauso, wenn nicht noch relevanter, dass ein neuronales Netz ist insbesondere deshalb fürs autonome Fahren so unglaublich spannend und gut geeignet, weil es nicht regelbasiert, sondern end-zu-end versteht, wie es die Umgebung wahrzunehmen hat.
Das heißt beispielsweise eine Path Prediction, das heißt sozusagen, auf welchem Weg das Fahrzeug sich die nächsten Meter, die nächsten 100 Meter am besten fortbewegen muss im autonomen Modus.
Diese Prediction wird ja nicht durch einzelne Regeln definiert, vielleicht ergänzt, aber hauptsächlich basiert die darauf, dass das autonome Fahren bei der Entwicklung extrem viele Szenarien gesehen hat, extrem viele Daten bekommen hat und dann diese Logik für sich selber entwickeln kann.
Und jetzt ist der wichtige Punkt: Das Verpixeln von Daten führt dazu, dass die Daten nicht mehr so sind wie im Ursprung und gewisse Artefakte das neuronale Netz dazu beeinflussen können, einen Abfall der Genauigkeit im Training zu haben.
Das heißt, man möchte wirklich genauso wenig wie auf diesen Trainingsdaten irgendwie einen Pixel-Fehler, den möchte man nicht haben, weil der einfach das neuronale Netz beeinflussen würde. Und genauso sind quasi geblurrte Gesichter, verpixelte Gesichter oder Nummernschilder, dass sie dann die Genauigkeit dieser Modelle beeinflussen.
Und im autonomen Fahren kann man sich das nicht leisten, dass man einen Qualitätsabfall hat, der dann am Endeffekt wahrscheinlich auch eine Sicherheitsrelevanz hat.
Sebastian
Das leuchtet ein, vor allem weil das ja die Grunddaten sind, wo alles grundsätzlich darauf trainiert wird, so wie du es ja auch ausgeführt hast. Wenn da der Fehler schon sich einschleicht, dann kann es ja nach hinten raus nicht besser werden.
Jetzt habe ich im Vorgespräch oder in den Informationen vorab ja erfahren, dass ihr sozusagen das einzige Unternehmen seid, das so, also eurer Aussage nach, das diese Lösung anbietet. Das heißt ja für mich im Umkehrschluss, alle anderen haben ein Problem, die euch nicht nutzen.
Oder wie ist das ein Stück weit einzuordnen? Weil irgendwie muss ja jeder Hersteller, jeder, der sich damit beschäftigt, auseinandersetzt, dieses Problem gelöst bekommen, dass diese Datenqualität, auch gerade diese Verpixelung, diese störenden Artefakte eben nicht vorhanden sind. Wie war die Lösung bisher und wie schlagen sich eure Marktbegleiter damit?
Marian Gläser
Also wir sind nicht tatsächlich wirklich das Allereinzige. Es gibt ganz kleine, sozusagen erste Firmen auch aus Großbritannien, die eine fast identische Lösung anbieten. Dennoch hast du genau recht. Was machen eigentlich die ganzen Firmen, die uns nicht benutzen? Und das ist natürlich, dass jedes Unternehmen selber verstehen muss, wie gehen sie mit Daten um und wie gehen sie mit dem Datenschutz um?
Und das lebt jedes Unternehmen anders. Man kann sich vorstellen, ein chinesisches Unternehmen, was auf dem europäischen Markt unterwegs ist, verhält sich anders als vielleicht ein französisches Unternehmen, weil da sozusagen eine andere Beziehung auch zum, ja, wie sagt man, zu der Gesetzgebung auch ist.
Nichtsdestotrotz gibt es auch genug europäische Unternehmen, die für gewisse Testzeiten, für gewisse Pilotprojekte auch Sondergenehmigung haben. Und das macht auch Sinn, sozusagen im gewissen Bereich auch Ausnahmen aufspannen zu können. Die grundsätzliche Frage ist nicht: Wie sah es gestern aus, sondern wie sieht es in der Zukunft aus?
Weil die Daten werden nicht weniger, sondern sie werden mehr. Und die Daten kommen zukünftig nicht aus den ersten Testfahrzeugen und den Mapping Vehicles, sondern es kommt zukünftig dann auch aus den Produktionsfahrzeugen, die kontinuierlich Daten zurückschicken zum OEM.
Und es gibt einen essenziellen Schlüssel in der DSGVO, einen Grundsatz, der nämlich heißt, dass das Unternehmen, was die Daten aufnimmt, eine sogenannte Datenminimierung einhalten muss. Das heißt, dafür sorgen muss, so wenig wie möglich personenbezogene Daten wie möglich zu sammeln.
Und diesem Grundsatz können viele Unternehmen aktuell eigentlich nicht komplett nachkommen. Wir haben sozusagen glücklicherweise einen guten Anlauf auch von Neukunden genau in diesem Bereich. Es wird aber zunehmend kritischer für Unternehmen, die sich andere Lösungen überlegen, diese Datenminimierung tatsächlich Folge zu leisten, wenn sie nicht personenbezogene Daten, Gesichter und Nummernschilder aktiv entfernen.
Weil was man natürlich festhalten muss, für ein autonomes Fahren ist es nicht relevant, ob ein „Sebastian“ dort auf der Straße läuft. Das heißt, es braucht dieses Gesicht nicht. Und wenn man sich anschaut, wie groß diese Daten sind und wie viel Datenmissbrauch auch betrieben werden kann, wenn diese Daten leaken würden, ist das natürlich eine Gefahr, die eigentlich kein Unternehmen langfristig eingehen möchte.
Das heißt, wir befinden uns sozusagen so am Ende dieser Grauzone, bei der viele Unternehmen auch vielleicht mit anderen Lösungen bisher arbeiten konnten. Die verlassen wir so langsam.
Sebastian
Was ja für euer Geschäftsmodell und eurer Geschäftszukunft dann ja eher zuträglich ist, tatsächlich. Weil ihr habt da eine Lösung, die entsprechend hoch skaliert werden kann, genutzt werden kann.
Aber nur für mich noch mal zum Verständnis, ihr seid im Endeffekt eigentlich nur Datenveredler, nenne ich es jetzt mal. An sich habt ihr aber mit den Daten nichts mehr am Hut, wenn die jetzt einmal durch euren Prozess durchgelaufen sind, verlassen die euer Haus wieder und dann seid ihr jetzt nicht eine potenzielle Gefahrenstelle für einen Datenleak oder so was?
Marian Gläser
Genau. Also wir sind ein Data Opener sozusagen. Wir versuchen auch Störungen auf dem Original-Material, also wenn da ein Regentropfen auf der Linse ist, den lassen wir genauso da, weil der ist ja relevant, um das Fahrzeug zu trainieren.
Das heißt, wir eröffnen die Daten aus einer Compliance-Sicht. Gerade bei großen Kunden passiert die Anonymisierung auf den Servern des Kunden. Deshalb haben wir auch eine On-Prem, eine Private-Cloud-Variante. Und dann schützt sich im Prinzip das Unternehmen selbst gegen Data Leaks.
Weil in dem Moment, in dem die Daten anonymisiert sind und die Originaldaten dann auch gelöscht werden können, ist dann das Gefahr bei einem Datenleck halt wesentlich geringer, weil jede Art von automatisiertes Verfahren, um Nummernschilder oder Gesichter zu tracken, Personen möglicherweise beim Data Leak zu identifizieren, das ist dann dementsprechend ausgeschaltet.
Sebastian
Vielen Dank, Marian, dass du uns da die Einblicke gegeben und auch jetzt auch mal wieder auf einen anderen Part des autonomen Fahrens sozusagen und gerade das Thema Daten dann noch mal aufgegriffen hast, wie man damit eben DSGVO-konform umgehen kann, was wahrscheinlich viele unserer Zuhörer*innen auch nicht so direkt auf dem Schirm hatten.
Aber ich gehe davon aus, vielleicht kommt die eine oder andere Anfrage jetzt aufgrund des Podcasts zu euch, ich würde mich auf jeden Fall freuen und würde mich auch freuen, wenn wir uns dann in naher Zukunft noch mal austauschen, wie denn eben oder wie ihr denn den Run auf die Datenqualität mitverfolgen könnt in den kommenden Jahren, weil autonomes Fahren wird ja wachsen, die Datenmenge wird wachsen und damit wird hoffentlich auch eure Arbeit zunehmen. Vielen Dank für deine Zeit, Marian.
Marian Gläser
Sehr gern.