Mixed Reality führt BMW in virtuelle Welten (feat. Christopher Geyer und Torsten Schmitt)

Shownotes

Jeder in der Autoindustrie redet aktuell vom immensen Impact von künstlicher Intelligenz auf Produkte und Prozesse. Nicht minder spannend ist der Blick in virtuelle Welten: Metaverse, Mixed Reality und Spatial Computing sind Technologiefelder, die insbesondere im Design, Engineering oder Fertigungsplanung ungeahnte Effizienzgewinne versprechen. So auch bei BMW. In der aktuellen Folge fragen Pascal und Yannick bei Christopher Geyer und Torsten Schmitt von BMW nach, wie Mixed Reality bei den Münchnern konkret zu Einsatz kommt und wie ein App-Store zur Demokratisierung von Spatial Computing im Konzern beitragen kann.

Hintergründe zum XR-Projekt bei BMW: https://www.automotiveit.eu/konzern-it-bmw/xr-wird-zum-gamechanger-fuer-bmws-fahrzeugentwicklung-669.html

Wie Automotive-Ingenieure von virtuellen Welten profitieren: https://www.automotiveit.eu/strategy/new-work/so-forcieren-ar-und-vr-das-mobile-arbeiten-280.html

Industrial Metaverse in der Live-Diskussion Ende Februar in München: https://www.industrial-metaverse-conference.com/

Mehr zu Pascal und Yannick finden Sie auf LinkedIn: Pascal Nagel: https://www.linkedin.com/in/pascal-nagel/ Yannick Tiedemann: www.linkedin.com/in/yannick-tiedemann

Hinweis: Die im Podcast getätigten Aussagen spiegeln die Privatmeinung der Gesprächspartner wider und entsprechen nicht zwingend den Darstellungen des jeweiligen Arbeitgebers

Transkript anzeigen

00:00:00: Pascal, weißt du eigentlich, was spatial computing ist?

00:00:05: Ja, das ist ja, ich muss sagen, technisch gesehen dünnes Eis.

00:00:09: Also nach meinem leihenhaften Verständnis ist das im Prinzip so der Oberbegriff für die Verschmelzung von physischer und digitaler Welt.

00:00:16: Aber deutlich mehr kann ich dazu jetzt nicht beitragen.

00:00:19: Ich denke aber mal am Ende der Folge heute werde ich schlauer sein und werden vielleicht auch viele unserer Zuhörerinnen und Zuhörerschlauer sein.

00:00:28: Was mich bewegt, der Automotive Podcast.

00:00:34: Aber lass uns mich doch mal an dieser Stelle das noch mal ein bisschen einfacheren Worten sagen.

00:00:46: Das ist immer gut.

00:00:47: Das ist immer gut.

00:00:48: Wir haben ja beide Kinder und dazu habe ich zu spatial computing auch eine kindgerechte Definition gefunden,

00:00:53: die das vielleicht ein bisschen einfacher macht zu verstehen.

00:00:56: Also stell dir vor, du schlägst ein Buch auf und möchtest sehen, wie ein bestimmtes Tier aussieht.

00:01:00: Mit spatial computing kannst du ein Tablet oder eine spezielle Brille nutzen, um die Buchseite zu scannen.

00:01:05: Das Gerät erkennt das Bild des Tieres und stellt es dir in 3D auf dem Bildschirm dar.

00:01:10: So kannst du es aus allen Perspektiven betrachten, heransuchen und vielleicht sogar seine Laute hören.

00:01:16: Das war jetzt ein bisschen der Sendung mit der Maus einstiegend.

00:01:18: Mein Sohn wäre begeistert.

00:01:19: Oder?

00:01:20: Also da sollte es doch jeder verstehen.

00:01:21: Weil wir wollen natürlich in diesem Podcast nicht über Tiere in Bilderbüchern sprechen,

00:01:25: sondern natürlich über die Vorzüge von spatial computing und Mixed Reality in der Automobilindustrie.

00:01:32: Es herrscht ja momentan ein ziemlich großer Hype um das Thema, vor allem im Kontext des sogenannten industrial metaverse,

00:01:38: mit dem beispielsweise die Fabrikplanung, die Logistikplanung deutlich einfacher funktioniert,

00:01:44: und die virtuellen Raum geschoben wird und damit natürlich das ganze Thema deutlich schneller und effizienter von Statten gehen kann.

00:01:51: Aktuelle Studien zeigen, dass viele Unternehmen sich mit Mixed Reality und Metaverse beschäftigen,

00:01:57: aber doch irgendwie an vielen Stellen noch davor zu rückschrecken, das auch wirklich einzusetzen und das in die Praxis zu bringen.

00:02:03: Ja, absolut.

00:02:05: Du sagst es, die Zurückhaltung ist noch zu spüren, aber genau deswegen wollen wir heute mal auf ein Unternehmen schauen,

00:02:12: dass man wirklich seit Längerem mit dem Thema beschäftigt hat,

00:02:14: virtuelle Welten schon in Prozesse, in Produktion oder vor allem auch in der Entwicklung schon integriert hat, und zwar BMW.

00:02:22: Wir haben uns auch in Zuge unseres BMW Sonderheftes über die KonzernIT,

00:02:28: im vergangenen Jahr bei AutomotiveIT auch mit dem Thema und auch entsprechenden Projekten dazu beschäftigt.

00:02:34: Und ja, Janik, wir freuen uns jetzt darauf, dass wir zwei Experten hier heute mit an Bord haben, die sich bei BMW ganz intensiv mit Mixed Reality-Lösung,

00:02:43: mit dem von dir schon angesprochenen Spatial Computing beschäftigen, vor allem in Bezug auf die Fahrzeugentwicklung und da schon tatsächliche Effizienzgewinne einfahren.

00:02:53: Wir begrüßen an dieser Stelle Christopher Geier und Thorsten Schmidt. Hallo Christopher, Hallo Thorsten, schön, dass ihr da seid.

00:02:59: Servus.

00:03:01: Hallo, alle beiden.

00:03:03: Ja, vielleicht mal zum Start weg mal so ganz grundsätzlich gefragt. Wir haben jetzt hier mit euch beiden einen IT-Ler,

00:03:10: sozusagen einen Bereitsteller von Digitalisierungslösungen und einen Anwender aus dem Fachbereich aus der Entwicklung,

00:03:17: vielleicht mal ganz grundsätzlich gefragt, wie kann denn IT, wie kann denn Digitalisierung, digitale Tools dabei helfen,

00:03:24: Design- oder Entwicklungsprozesse effizienter aufzugestellen und im Endeffekt auch Design- und Entwicklungszeiten auch zu verkürzen,

00:03:32: weil darum geht es natürlich häufig auch am Ende des Tages.

00:03:35: Perfekt, das ist eine gute Frage. Ich würde mal starten und so die IT-Baseline legen und Thorsten wird im Sprechen darauf aufsetzen.

00:03:42: Wir haben jetzt so vier Punkte, wo wir sagen, da fokussieren wir uns drauf und da können wir wirklich auch Entwicklungszeiten im Signifikat verkürzen

00:03:49: und auch einen Impact für die Organisation schaffen, das zum einen das Thema Virtualisierung, also genau was ihr vorhin angesprochen habt,

00:03:55: in Richtung Spatial Computing, also Reduktion von Hardware und hin Richtung Virtualisieren von bestimmten physischen Objekten,

00:04:04: dann das Thema Automatisierung, ich glaube, einer der wichtigsten Parts, um eben Prozesse zu streamlinen und zu automatisieren.

00:04:11: Und wo wir einen ganz starken Fokus auch dieses Jahr darauf legen, ist das Thema Datendurchgängigkeit.

00:04:17: Das heißt, dass ich eigentlich von der Idee bis hin zur Umsetzung oder einen Anlauf im Werk eigentlich immer auf einem gleichen Datenstand aufsetze.

00:04:24: Und da hat uns eigentlich auch in der letzten Zeit das Thema Metaverse und so weiter auch geholfen.

00:04:28: Da können wir später auch noch mal ein bisschen genauer drauf eingehen.

00:04:31: Und dadurch, dass wir eben so viele Daten auch gewinnen und haben, können wir dementsprechend auch mit KI dementsprechend auch anreichen

00:04:38: und haben einige superinteressante Use Cases, die wir dann auch gerade so in der Verknüpfung zwischen Spatial Computing

00:04:46: oder MRXR und dem Engineering Prozess haben.

00:04:50: Also das heißt, in kürze Applikationen und Tools für Virtualisierung in die Breite des Unternehmens zu bringen und einfach nutzbar zu machen.

00:04:58: Und wir haben einen ganz starken Fokus auf dem Thema Self-Service, weil wir ja keinen flachen Teil sein wollen,

00:05:03: weil wir eben sehr, sehr viele Abnehmer mittlerweile haben und Trosten ist einer der wichtigsten für uns

00:05:09: und dass er auch selber direkt unsere Tools auch nutzen kann und darauf aufsetzen.

00:05:13: Und da würde ich jetzt einfach mal ganz konkret an dich übergeben.

00:05:16: Genau, was machen wir eigentlich?

00:05:18: Also mein Team ist verantwortlich für Nutzer-Erlebnis-Modelle und zwar nicht nur Virtual, sondern auch in Hardware.

00:05:24: Das heißt, wir haben auch Referenzmodelle zu den richtigen Nylensteinen, weil wir immer noch natürlich auch im Ende ein physikalisches Produkt

00:05:32: unseren Kunden zur Verfügung stellen.

00:05:34: Aber was wichtig ist, das Beispiel mit dem Tier ist eigentlich ganz gut.

00:05:39: Wir bauen jetzt zwar keine Tiere oder bauen keine Referenzmodelle für Tiere,

00:05:42: aber bei uns kommen all diese Eigenschaften des Produkts, weil ihr auch vielen von Sound gesprochen habt, eigentlich zusammen.

00:05:48: Das heißt, wir haben die Aufgabe, die Daten, die ja nicht wir erzeugen, sondern die ganz viele andere Fachbereichskollegen und Teams erzeugen,

00:05:54: wie Geometrie, Material, die Varianten derer und das Thema Sound und Erlebnisdaten, die kommen alle bei uns zusammen

00:06:02: und werden eigentlich im einen Produkt begreifbar, so dass wir natürlich früh im Prozess schon die Kundenwirksamkeit des Produktes auch

00:06:08: tatsächlich messen können, um dann vor Kunde das richtige Angebot zu haben.

00:06:14: Und da geht es immer um Daten und Daten dreht sich eigentlich bei uns alles.

00:06:18: Wenn wir das, was der Christ schon gerade angesprochen hat, eben perfekt beherrschen, dann sind wir natürlich auch deutlich effizienter, schneller.

00:06:24: Und der Vorteil der Virtualisierung ist bei uns natürlich ganz klar, dass wir die Variantenkomplexität besser darstellen können,

00:06:32: was man bei einer Hardware natürlich nur mit einem ungeheuren Aufwand realisieren kann, ganz geschweige von den Kosten.

00:06:37: Aber der Faktor Zeit ist da fast noch dekravierendere.

00:06:41: Das heißt, in der Zeit, wo man physikalische Modelle baut, dreht sich die virtuelle Welt so schnell weiter,

00:06:46: dass man in der Regel eigentlich immer schon einen überholten Hardwarestand hat, wo wir mit der virtuellen Welt natürlich immer tagesaktuell sein können.

00:06:53: Vielleicht mal ganz kurz Torsten in deine Richtung für alle, die gerade zuhören, die vielleicht nicht selbst aus dem Engineering,

00:07:03: aus dem Entwicklungsbereich kommen in der Automobilindustrie.

00:07:06: Wie war denn, weil du ja auch gesagt hast, natürlich der Bereich Hardware.

00:07:11: Und ich habe noch so ein bisschen im Kopf, du selbst hast auch in der Geschichte, die wir geschrieben haben, auch gesagt, auch eurer Hardware ist im Prinzip Benchmark.

00:07:19: Das, was sie im Bereich Hardware auch an Modellen erstellt, ist im Prinzip Benchmark.

00:07:22: Trotzdem will man immer schneller werden. Aber vielleicht mal die Frage an alle, die aus dem Bereich nicht so kommen.

00:07:26: Wie hat man denn vor VR, XR gearbeitet? Also mit welchen Art von Hardwaremodellen musste man denn arbeiten?

00:07:33: Und wie lange waren denn die Zeiten eigentlich, um solche entsprechenden Modelle auch zu erstellen?

00:07:39: Das hekt man natürlich von den Modellen ab und aus der Projektphase heraus.

00:07:43: Das startet natürlich relativ früh mit sehr groben Modellen, die man in wenigen Wochen, ich kann jetzt keine konkreten Schale nennen,

00:07:49: aufbauen kann bis hin zu, ich sag es mal, ein bis zwei Monaten.

00:07:53: Das kommt jetzt die Komplexität der Modelle drauf an, ob das materialisierte Modell sind, ob die elektrifizierte Umfänger haben, etc.

00:07:59: Faktisch ist einfach, ihr müsst euch vorstellen, dass die Datengenerierungsmaschine eben so schnell läuft.

00:08:05: Und natürlich in der Phase, wo man Daten ausleiten muss, auch wenn es nur zwei oder drei Wochen sind für den Modellbau,

00:08:11: in der Regel schon längst wieder, ich sag mal, potenziale eingearbeitet hat.

00:08:15: Und dann an einem Modell idealerweise eigentlich schon bestätigt,

00:08:19: das Potenzial, was das Modell dann tatsächlich zeigt, schon beruht.

00:08:23: Und was mir eben auch immer wichtig ist, ist, die Virtualisierung sorgt auch dafür, dass die Modelle, die wir natürlich dann bauen,

00:08:30: die ja auch einen enorm, wie gesagt, finanziellen Aufwand wird, sich bringen, eben nicht dafür da sind, um die Potenziale zu finden,

00:08:37: sondern dass wir in der Regel dort bestätigen, dass wir alles richtig gemacht haben.

00:08:40: Und das hat sich schon geändert, also von der Logik, wir überprüfen dort die Daten auf Richtigkeit hin zu einer Bestätigung.

00:08:48: Und wenn man dann noch was finden würde, dann ist es natürlich immer auch der Anreiz in der Methode zu gucken,

00:08:53: was müssen wir virtuell anders machen und beim nächsten Projekt eigentlich methodisch auch sicherzustellen,

00:08:58: das war das auch virtuell dann beherrscht.

00:09:00: Da gibt es natürlich verschiedene Themen.

00:09:02: Ich weiß nicht, wir kommen vielleicht später noch ein bisschen detaillierter dann auf die Virtualisierung.

00:09:06: Genau, das Thema Virtualisierung wollen wir jetzt natürlich vertiefengleich, aber noch mal ein bisschen grundsätzlicher gefragt.

00:09:11: Ihr habt die Stichworte gerade schon genannt. Daten sind enorm wichtig, Daten-Durchgängigkeit, Automatisierung, Christo,

00:09:16: das ist, glaube ich, einem auch angesprochen.

00:09:18: Wenn man sich so ein bisschen die Transformationen im Bereich Fahrzeugdesign, im Bereich Fahrzeugentwicklung anschaut,

00:09:23: wir sprechen hier im Podcast viel darüber, steht natürlich unter dem Zeichen der künstlichen Intelligenz, Generative AI, Generative Engineering,

00:09:31: steht natürlich ganz oben.

00:09:33: Ist das für euch, wenn ihr jetzt mal so das Technologie-Portfolio durchschaut, auch der größte Stellhebel in euren Bereichen aktuell?

00:09:41: Genau, das ist ein Thema, wo ich vielleicht anfangen kann, Thorsten, sehr gerne darauf auf.

00:09:46: Das ist mit Sicherheit ein großer Stellhebel.

00:09:49: Für mich ist aktuell das Thema Virtualisierung der noch größere Stellhebel,

00:09:54: vielleicht eine kleine Anekdote aus zu der vorigen Frage, noch die da ganz gut dazu passt.

00:09:59: Da war letztens mal in so einem Design-Team mit dabei, die quasi so dieses Willkommen im Fahrzeug auch virtualisiert haben.

00:10:08: Und die konnten dann wirklich in dem Termin des Designs von den Displays, wie die erscheinen, in Unreal in dem Fall, auch neu gestalten.

00:10:17: Und diese Iterationszyklen sind halt sehr, sehr kurz einfach, wo ich in der Diskussion direkt live auch Sachen ändern kann.

00:10:24: Und der größte Stellhebel ist wirklich so dazwischen.

00:10:29: Also wenn ich eine gute Virtualisierung habe, aber dann auch noch mit KI, zum Beispiel Metadaten, Kundendaten auch mit einfließen lassen kann,

00:10:38: das ist wirklich super spannend.

00:10:40: Was wir trotzdem machen ist, wir nutzen GitHub Co-Pilot, um uns für Entwickler auch in und Entwicklerinnen zu unterstützen,

00:10:48: eben auch Perfomanten Co-Zuschreiben, bestimmte Testautomatisierungen auch mithilfe von KI umzusetzen,

00:10:56: aber auch dieses ganze Domain-Wissen aus dem Engineering.

00:11:00: Also BMW hat ja eine riesen Historie und wir haben super viel nachher, was bei unseren Ingenieuren auch quasi lokal liegt.

00:11:08: Und das versuchen wir gerade auch mit einem Large Language-Modell, was wir Brownen eben auch zu optimieren.

00:11:15: Das heißt, wir optimieren einen Large Language-Modell, um eben das ganze Fach noch von unseren Entwicklerinnen zu bekommen,

00:11:22: um das dementsprechend auch anderen Mitarbeiterinnen zur Verfügung zu stellen,

00:11:26: um eben mit sehr wenig Domain-Knowledge sofort dedizierte Aussagen zu bekommen.

00:11:33: Da ich das letzte Woche zum Beispiel mal eine ganz konkrete Frage auch gelesen, also wie so ein Prompt dann aussieht,

00:11:40: soher habe ich in diesem Bauteil XY irgendwelche Schäden in der Vergangenheit gehabt.

00:11:46: Das ist eine Frage, die jetzt aktuell, das würde wahrscheinlich drei, vier Wochen dauern,

00:11:51: bis ich da wirklich ein holistisches Bild dazu bekomme.

00:11:54: Und da arbeiten wir eben dran, da auch in Real-Time diese Informationen auch zu bekommen.

00:11:59: Ja, wenn ich jetzt bei mir auf die Anwendung gucke, dann muss ich sagen,

00:12:04: natürlich begleitet uns das in diesen Standard-Use-Cases.

00:12:07: Wenn wir auch für Automatisierung, Skript-Python oder sonstige,

00:12:11: Skript-Bauen, dann ist das natürlich für jeden Anwender mittlerweile ein ganz normale Standard-Tool,

00:12:15: nämlich mal, das ist ja relativ schnell etabliert gewesen, weil jeder selbst erkannt hat, dass das ihn,

00:12:21: dass es eigentlich Pflicht ist, dass man sowas nutzt, um relativ schnell auf Lösungen zu kommen und dann ins Refinement zu gehen.

00:12:26: In der Virtualisierung jetzt konkret in unseren Modellen, muss ich sagen, spielt das jetzt noch momentan noch nicht so die riesen Rolle,

00:12:34: natürlich profitieren wir im erweiterten Sinne von dem, was die GPU-Hersteller da leisten an Upscalern und so weiter

00:12:41: und so fort, um rein die Qualität und Bildraten zu erreichen, die wir brauchen, mit der Hardware, die natürlich auch immer wieder besser wird.

00:12:47: Also mit dem Anspruch steigt dann natürlich auch die Performance und die Leistungsfähigkeit der Hardware, die man braucht, um diese Dinge zu befähigen.

00:12:55: Das kann man im erweiterten Sinne sehen, dass das KI ist, was so ein DLSS zum Beispiel als Upscaling leistet

00:13:00: oder auch von anderen GPU-Herstellern da von profitieren, aber das ist jetzt nichts Spezifisches.

00:13:05: Da muss man ganz klar so sagen, wir haben da natürlich auch schon, sag ich jetzt mal, ein Bild von Datenstrukturen, gute Erfahrungen gesammelt,

00:13:13: wo wir auch dran bleiben, das ist aber noch nicht der Standard-Dues-Case, muss man ganz klar so sagen.

00:13:19: Jetzt habt ihr ja mal gerade schon gesagt, dass KI vielleicht gar nicht der größte Hebel gerade ist,

00:13:24: sondern eigentlich ist der größte Hebel gerade das Thema Virtualisierung

00:13:27: und am Ende natürlich auch die virtuelle Welt mit der physischen Welt irgendwo zusammenzubringen,

00:13:32: eine Echtzeit zusammenzubringen, irgendwo zu verheiraten.

00:13:35: Das ist natürlich auch genau das, was ihr in eurem Projekt ja auch macht.

00:13:38: Das Thema VR, AR, XR in der Entwicklung ist natürlich da, sind das die Schlagworte.

00:13:44: Vielleicht skizziert ihr einfach gerade nochmal, wie denn genau diese Verschmelzung von digitaler und physischer Welt bei euch im Projekt wirklich stattfindet

00:13:52: und vielleicht ja auch nochmal die Frage, ist eigentlich die Eingangsdefinition von Spatial Computing überhaupt korrekt gewesen?

00:13:58: Also gut, fange ich einfach mal an.

00:14:02: Ich sage jetzt mal, VR ist ja nichts Neues.

00:14:04: Wenn wir jetzt in 2025 darüber reden, das ist ja schon ein fester Bestandteil eigentlich bei BMW in der Entwicklung,

00:14:09: sag jetzt mal so, wenn ich so zurückblicke, mindestens ab 2016, wo man in der Hardware auch mal wirklich was oder anfangen,

00:14:16: was erkennen zu können, vorsichtig heute, wenn man es so schaut,

00:14:20: bei aller technischen Begeisterung, die damals auch schon herrschte,

00:14:24: da ist es natürlich so, dass wir auch dort schon relativ früh das ganze Thema VR primär natürlich auch angenommen haben,

00:14:32: um in der Frühenphase vor allen Dingen, das ist sehr hilfreich, also in Varianten zu geben, um die Produkte zum Samstab zu definieren.

00:14:38: Das heißt, Ideen, die da ein Unternehmen hat, relativ schnell zu überprüfen, ob sie vor Kunde überhaupt funktionieren, bevor es eben auch in der Hardware geht.

00:14:46: Natürlich kann das bedeuten, dass man auch mal einen ganz einfachen, ich sage mal Sitz-Mockup oder so etwas fertigt,

00:14:52: der einfach auch die Grundergonomie dem Menschen dann besser begreifbar macht, wo Sitz sich, wie fühle ich mich darin, das ganze Thema haptik,

00:14:59: ist ja bis heute noch nicht, sag ich es mal, erfasst in dem XR-Thema unbedingt drin.

00:15:03: Das heißt, da bin ich ja auf eine Hardware angewiesen, die mich auch in meinem Bewegungsraum, den ich in einem Auto mobilen,

00:15:07: da regelt dann schon irgendwo ja auch Rahmenbedingungen vorgebe, erlebbar zu machen,

00:15:12: aber wenn man mal eine Ablagekonzepte oder solche Dinge denkt oder grundsätzliche Bedienbarkeit oder einfach neue Features, was Wow-Faktoren angeht,

00:15:20: dann sind natürlich solche Tools und waren sie schon immer auch bei uns im Einsatz von der frühen Phase sehr relevant.

00:15:25: Das heißt, da eine Breite gehen, schnell Dinge auch verwerfen, ich sage immer, Fail-Fast, das ist nicht schlimm, also bevor man in den Irrweg geht

00:15:32: und solange die Varianten eigentlich dann ausdetailiert, das heißt, fokussieren, in den Serienentwicklungsprozess überführen

00:15:38: und dann mit aller Konsequenz natürlich auch Reifen machen. Also da war das schon immer ein Thema.

00:15:43: Was für mich ein Game-Changer war, wenn ich zurückblicke, der vor allen Dingen, weil das kommt ja nicht nur darauf an,

00:15:48: dass jetzt die Experten technologisch dort mit was bewerten können.

00:15:51: Zum Schluss funktioniert so eine Familie, so eine Familie, sag ich schon, so eine Firma natürlich, das passt aber auch ganz gut, funktioniert natürlich auch über das Management.

00:16:01: Zum Schluss müssen wir das Management auch überzeugt werden von den Lösungen.

00:16:05: Und da war für uns eigentlich das Thema XR eigentlich einig, da wirklich der Game-Changer.

00:16:10: Das fängt schon bei ganz primären Sachen an wie Motion Sickness und Unwohlsein,

00:16:15: wenn ich mich komplett in einer VR-Welt begebe, wo parallel vielleicht trotzdem noch andere Menschen um mich rumstehen.

00:16:20: Ich jetzt den Raum nicht genau kenne von meinem Bewegungsfreiheit, da ist eigentlich eine gewisse Unsicherheit,

00:16:24: da wenn ich nicht jetzt wirklich ein Power-User bin, der da permanent irgendwie sowas kennt.

00:16:28: Und das Thema XR hat das deutlich verbessert.

00:16:31: Dadurch einfach schon, dass die Menschen die reale Umwelt trotzdem wahrnehmen, das virtuelle Produkt im Raum steht.

00:16:38: Und damit das ganze Thema Kontrollverlust, Angst vom Stolpern, sage ich jetzt mal ganz banale Dinge,

00:16:43: erst mal grundsätzlich nicht da sind.

00:16:45: Das hat dann das ganz skurrile und witzige Anzüge, dass dann eher für die Außenstehende ein komisches ist,

00:16:50: wenn der Mensch die Brille gar nicht mehr abnimmt und mit dir redet,

00:16:53: weil er dich ja ganz normal sieht, aber natürlich von außen betrachtet die Anderen für die anderen Feuerheadset auf dem Kopf trägt.

00:17:00: Da haben wir sehr, sehr lustige und positive Erfahrungen gemacht.

00:17:03: Also das war für uns eigentlich der größte Game Changer, dass wir viel mehr Menschen in diese Welt reingebracht haben.

00:17:09: Vorher waren das natürlich die Eigeninteresse und diejenigen, die man ja schon über den Prozess auch dazu zwingen musste,

00:17:15: in einem gewissen Maß zu Beginn der Technologie.

00:17:17: Und jetzt ist das natürlich ein völlig etablierter Prozess.

00:17:19: Das heißt, das machen wir eigentlich standardmäßig.

00:17:21: Wir haben damit auch schon, sage ich mal, komplett der Hardware-Schleifen ersetzt,

00:17:26: weil das jetzt einfach virtualisiertes Schleifen sind, um Zeit auch auszunehmen aus dem Entwicklungsprozess

00:17:32: und schneller zu werden, natürlich kürzer an den Markt heranzukommen, in die Entwicklungszeiten rauszubekommen.

00:17:38: Und das ist eine Erfolgsstory, absolut.

00:17:41: Also und heute der Standardprozess.

00:17:44: Das basiert heute noch mit kabelgebundenen Headsets.

00:17:46: Wenn ihr mich fragt, ist der nächste Schritt eigentlich dann auf kabelose.

00:17:50: Da geht es eher um Komfort, um nochmal mehr Zugänglichkeit zu der Technologie zu schaffen

00:17:54: und die Hürden zu nehmen.

00:17:56: Weil es da heute natürlich schon Experten-Hardware ist.

00:17:59: Also wir haben in der Regel keine Konsummer-Hardware, die wir da einsetzen,

00:18:02: sondern Hardware, die natürlich auch eine gewisse Betreuung braucht

00:18:05: und dann gewisses Fachpersonal erfordert.

00:18:07: On-Site.

00:18:09: Vielleicht könnt ihr uns ja auch noch an der Stelle mal so ein bisschen in die Praxis mitnehmen.

00:18:13: Ein Fokus oder einen Kernpunkt, das Ganze ist ja auch,

00:18:17: das kommt doch auch bei uns in unserer kleinen Reportage so ein bisschen raus,

00:18:21: dass da diese Konvergenz zwischen Design und Technik am Ende des Tages,

00:18:24: also diese beiden Fachbereiche auch durch die Technologien eben näher zusammenzubringen.

00:18:29: Wie kann man sich das ganz konkret vorstellen?

00:18:31: Wie arbeiten Designer, Entwickler, Ingenieure mit diesen Technologien konkret

00:18:35: an neuen Fahrzeugdesigns, an neuen Technologien im Auto?

00:18:39: Da bleibe ich einfach kurz im Griff da mal ran.

00:18:42: Also hätte ich vielleicht zu Beginn, in unserer Rolle ist es ja so,

00:18:45: dass bei uns auch die Designdaten als Zielbild natürlich mit verfügbar sind.

00:18:49: Das heißt, ich selbst arbeite nicht.

00:18:51: Wir sind ein Entwicklungsbereich für Karosserie und Ausstattung.

00:18:55: Die Karosserie und Ausstattung ist dafür verantwortlich,

00:18:58: das Design-Zielbild, die auch in Serie zu bringen.

00:19:01: Das hilft uns dann nichts, wenn wir tolle Designentwürfe haben,

00:19:04: die hinterher nicht beim Kunden ankommen.

00:19:05: Deswegen gibt es in diesem Bereich Rollen, die diese Zielführung verantworten.

00:19:10: Wir unterstützen diesen Prozess, indem wir eben immer das Zielbild,

00:19:14: also in dem Fall die Designdaten, mit dem aktuell möglich umsetzbaren

00:19:19: Konstruktionsdaten, nenne ich das mal ganz platt, weil ich jetzt mal

00:19:23: die Spezialbegriffe nicht unbedingt hier verwenden möchte.

00:19:26: Aber ich sage jetzt mal, das ist dann die technisch umsetzbare Oberfläche

00:19:29: und bei der Geometrie zu bleiben, die nicht nur Design berücksichtigt,

00:19:33: also die Design-ID, sondern eben auch alle Eigenschaften natürlich,

00:19:36: was Fahrzeugfunktion angeht, was Sicherheit angeht,

00:19:39: grundsätzliche Package und Raumvorgaben, die so ein Fahrzeug hat,

00:19:42: bis sie natürlich auch zu Kosten die Auswirkungen haben können,

00:19:45: auf den Lösungsraum, den das Projekt zur Verfügung steht,

00:19:47: stellt oder die Effizienzen, Verbräuche etc. pp.

00:19:50: Da ist natürlich ja eine Hausengaut immer mitrelevant für verantwortlich

00:19:53: und auch im Innenraum dann über Gewicht.

00:19:56: Und andere Kriterien hat das ja eine sehr komplexe Auswirkungen aufer Lande.

00:20:00: Das heißt, das Zusammenarbeit, wenn wir jetzt aber solche XR-Termine sprechen,

00:20:04: die finden in der Regel ja dann immer in einer Kollaborationsstadt.

00:20:07: Das heißt, da ist immer ein Design-Vertreter mit dabei.

00:20:10: Da ist ein Oberflächenkonzeptionsverantwortlicher mit dabei

00:20:14: und möglicherweise noch eine Managementfunktion.

00:20:17: Und dann werden eben dort diese Varianten verglichen.

00:20:20: Dann werden die Maßnahmen definiert, was auch in der digitalen Form

00:20:23: und Backend bei uns wieder einen Tool landet, um das zu Nachbereitungen

00:20:27: und natürlich auch zu Transparenz für diese Entscheidungen dann

00:20:30: jederzeit wieder abrufbar zu machen.

00:20:32: Aber das müsst ihr euch wirklich so vorstellen,

00:20:35: das findet zu festen Meilenstein und seit auf dieser Fläche

00:20:39: in einem kollaborativen Set-Up mit zwei oder drei Verbrillen statt.

00:20:42: Und dann wird dort, als wenn dort ein echtes reales Produkt steht,

00:20:45: an dem Produkt gearbeitet.

00:20:47: Und das ist auch ein Unterschied.

00:20:49: Das ist immer schon bei der Kollaboration.

00:20:51: Ich nehme das einfach mal mit vor.

00:20:53: Neben dem XR war das der nächste wirklich gravierende Punkt,

00:20:56: dass man nicht Leute einzeln in so eine VR reinstellt.

00:20:59: Die anderen stehen drum herum und gucken zu auf einem Bildschirm.

00:21:02: Dann ist man immer so ein bisschen der Kameramann für alle anderen.

00:21:05: In dem Moment, wo man zwei Leute in die gleiche Umgebung schickt

00:21:08: und mit einem, ich sag mal, Multiplayer Set-Up dort

00:21:12: in den gleichen Raum entwendet, dann blenden die sofort außen alles aus

00:21:16: und arbeiten eigentlich nur noch konzentrierter in dem Produkt,

00:21:19: ohne über die Methode nachzudenken.

00:21:21: Das war für uns auch so ein wirklicher, seitens mal, Aha-Effekt,

00:21:24: dass das noch mal ein massiver Stellhebel ist

00:21:26: und wirklich diese Produktfokus in so einem Termin aufrecht zu halten

00:21:31: und weniger, sei es mal, dass dann so nach fünf Minuten die Kamera,

00:21:34: diese VR-Brille vielleicht nur noch so eine virtuelle Kamera ist

00:21:37: und die anderen am Bildschirm zu zeigen, wo sie hinschauen müssen.

00:21:40: So was war am Anfang teilweise erlebbar, wenn sehr viele Leute daneben stehen

00:21:44: und eben nicht in diese VR-Weltende eintauchen konnten.

00:21:46: Das heißt, wir müssen eigentlich immer alle, zumindest das Relevanten,

00:21:49: Leute dort gemeinsam einbringen.

00:21:50: Dann entsteht wirklich viel, viel mehr Wertschöpfung in diesen Terminen.

00:21:56: Das sind vielleicht zwei Punkte, die du vorhin auch genannt hattest, Thorsten.

00:22:00: Die Barrieren sind ja stark gesunken.

00:22:02: Die möchten diese Technologie mittlerweile auch ausprobieren,

00:22:06: weil die Privatnubereich auch stärker angekommen ist.

00:22:09: Meter hat sehr, sehr viel investiert für neue Hardwaren, Brillen,

00:22:13: aber auch mit der Apple-Bishen-Programm, wer gemerkt hat,

00:22:16: die Leute, die sind da dabei.

00:22:19: Um dieses Thema Kollaboration auch einfach zur Verfügung zu stellen,

00:22:24: aus einer IT-Perspektive, haben wir den 3D App Store,

00:22:28: das habt ihr vielleicht schon mal gehört.

00:22:30: Das ist quasi eine Plattform bei uns,

00:22:32: wo unterschiedliche Business-Einheiten ihre Unreal- oder 3D-Szenen hochladen können.

00:22:38: Und dann zum Beispiel auf eine Brille-Streamen,

00:22:40: oder geht sogar auf ein iPad, dann haben wir unterschiedliche Möglichkeiten.

00:22:45: Und wir bringen da dieses Kollaborationsmodul gleich mit.

00:22:49: Das heißt, wenn ich eine neue Szene hochlade,

00:22:51: kann ich direkt auch in der Kollaboration arbeiten über Ländergrenzen hinweg.

00:22:57: Und das macht es tatsächlich super wertvoll im Bereich Entwicklung und Design

00:23:01: auch zusammenzuarbeiten.

00:23:03: Der Stelle ist ja schon das Stichwort Demokratisierung in meinem Kopf gekommen,

00:23:08: dass er sozusagen diese Technologien auch über so ein App Store

00:23:11: möglichst viele Mitarbeiter im Unternehmen auch zur Verfügung gestellt wird.

00:23:15: Ist es denn so auch, dass die Mitarbeiter ohne IT-Hintergrund,

00:23:18: ohne Entwicklungskompetenzen sich dann mit diesen Technologien,

00:23:21: mit diesen XA-Technologien auch auseinandersetzen können,

00:23:24: und die auch tatsächlich für ihren Fachbereich nutzbar machen können?

00:23:27: Vielleicht kann ich jetzt erst mal aus, was wir vorhaben.

00:23:30: Und du Thorsten, kannst dann direkt sagen, ob es klappt.

00:23:33: Genau, ganz offen und ehrlich.

00:23:35: Und zwar ist es so, Demokratisierung, ich habe es vorhin genannt,

00:23:39: also durch Meterwürcen, durch die aktuelle Entwicklung, durch den Hype,

00:23:42: hat mit Sicherheit eine Demokratisierung stattgefunden bei den Mitarbeitenden.

00:23:47: Ein wichtiger Punkt ist, wir haben Digital Campus Munich.

00:23:51: Also das ist quasi der Ort, wo alle unsere, die Group IT sitzt,

00:23:55: ein UX Live Center.

00:23:57: Das heißt, ich kann mit meinen ganzen Applikationen dahin gehen,

00:24:00: kann prüfen, wie gut meine Applikation in dem Bereich UI ist,

00:24:04: kann es gemeinsam bewerten und optimieren.

00:24:07: Und unser Team ist regelmäßig auch vor Ort,

00:24:10: man kann seine Applikationen gegen den SOS testen.

00:24:13: Das ist ein System usability scale.

00:24:16: Und wir arbeiten stetig daran, Klickwege zu reduzieren,

00:24:20: aber auch unseren Kunden, Kunden zu verstehen,

00:24:24: wie die Applikationen nutzt.

00:24:26: Und das zeigt sich auch wiederum in den Nutzungszahlen.

00:24:29: Also wir haben im letzten Jahr einen Zuwachs von 120 Prozent an Nutzern gehabt

00:24:33: auf den Plattformen.

00:24:35: Wir sind jetzt bei dem 3D App Store, ich bleibe einfach mal bei dieser

00:24:38: Streaming-Plattform, also mehr als 200 Abteilungen in der BMW Group

00:24:42: mit 2.000 aktiven Nutzern im Monat.

00:24:45: Also da sieht man schon, da ist wirklich richtig was dahinter.

00:24:48: Was uns auch zeigt, dass wir da in Richtung Demokratisierung

00:24:52: unterwegs sind.

00:24:54: Genau, es gibt so Walk-In-Sessions oder auch Community-Events,

00:24:58: wo wir eben schauen, dass wir da relativ breit kommunizieren

00:25:02: und Transparenz schaffen.

00:25:04: Und ein Newscaster ist relativ neu, Torsten,

00:25:08: das ist dieser AI-NPC, also so eine künstliche Intelligenz.

00:25:13: Und NPC heißt Non-Playable Character, das ist eigentlich so ein Jugendwort,

00:25:17: aber auch aus dem Gaming-Bereich.

00:25:19: Wenn ich in so einer 3D-Szene unterwegs bin, kann ich diesen NPC

00:25:22: gewisse Fragen fragen.

00:25:24: So, hey, was kann ich in dem Bereich gerade tun?

00:25:27: Und ich bekomme direkt auch kontextbezogene Wissen zurück.

00:25:31: Und das ist das Coole, also wirklich kontextbezogen.

00:25:34: Und da haben wir ein kleiner Kurs, gerade ins Badenburg,

00:25:37: eben ein Werker-Training durchgeführt mit 250 Mitarbeitenden,

00:25:41: wo dann tatsächlich dieser AI-NPC auch zum Einsatz kam

00:25:45: und die auch erfolgreich ausgebildet werden konnten.

00:25:48: Du trägt mein Satz auch zum Thema Demokratisierung bei.

00:25:51: Ich würde aber nochmal ganz kurz auf den App so allgemein zurückkommen,

00:25:54: weil das natürlich schon eigentlich ein wesentlicher ist.

00:25:57: Du spielst das jetzt fast so ein bisschen klein.

00:25:59: Für uns war das wirklich eine riesen Ding.

00:26:01: Weil ihr müsst euch ja vorstellen,

00:26:03: Virtualis- oder Visualisierung oder Erlebnungsmodelle,

00:26:06: das sind ja schon Profitools, also ich sage jetzt mal,

00:26:08: mit einem UI, das kann ich jetzt niemanden an die Hand geben.

00:26:11: Das heißt, das war in der Vergangenheit ja üblicherweise so,

00:26:14: wenn eine Visualisierung für einen Termin gezeigt werden musste,

00:26:17: dann musste sich einen Kollegen dort natürlich freispielen,

00:26:20: der zu dem Termin hingeht,

00:26:22: da mussten entsprechende Hochleistungs-Hardware dort sein,

00:26:24: wo man eben das auch ändern wollte

00:26:27: und an die Wand bringen möchte, um diese Sachen zu diskutieren.

00:26:30: Also ein Vorbereitungsaufwand, eine Hardware-Infrastruktur,

00:26:32: muss dann vor Ort da sein.

00:26:34: Und in der Zeit, wo man da sitzt und dann darauf wartet,

00:26:37: dass man das Modell, sage ich jetzt mal, präsentiert,

00:26:40: kann ich natürlich nicht neuen Content generieren.

00:26:43: So der App Store zur Demokratisierung,

00:26:45: das war für uns eigentlich der Schlüsseltool,

00:26:47: der hat uns natürlich plötzlich befähigt,

00:26:49: die Ergebnisse aus dem Team zu veröffentlichen

00:26:52: und dann anywhere, anytime,

00:26:54: natürlich mit dem Recht dem Management hinterlegt,

00:26:56: das ist logisch, weil die Daten in der Regel ja

00:26:58: sehr streng vertraulich bis geheim sind,

00:27:00: den Leuten zur Verfügung zu stellen

00:27:02: und man kann es ja dann auf jedem Office Laptop,

00:27:04: wie bei einem Game Streaming oder einem heutigen Streaming Dienst,

00:27:07: und sage ich jetzt mal, die auch einen Kontrolle und Unterstützung,

00:27:10: also im Rückkanal haben letztendlich einfach auf jedem Endgerät abrufen.

00:27:13: Und das ist natürlich ein Riesenvorteil,

00:27:15: das heißt, ich brauche diese Infrastruktur nicht dort,

00:27:17: wo es präsentiert wird.

00:27:19: Und zur Zugänglichkeit, um auf die Frage nochmal konkret zurückzukommen,

00:27:22: haben wir dann natürlich auch in diesem Modus dann ein UI,

00:27:25: was die Kunden nicht überfordert.

00:27:27: Also die sitzen ja nicht von einem Profi,

00:27:29: sagen wir Operator-UI, wo ich diese Szene baue,

00:27:32: sondern das ist dann letztendlich eigentlich vergleichbar

00:27:35: mit einem Konfigurator, mit dedizierten Varianten,

00:27:38: die eben dann diskutiert werden, die auch nur für den Use Case

00:27:41: sind, um dann nicht die Leute zu überfragten.

00:27:43: Das heißt, das ist in der Regel durch jeden,

00:27:45: der in dem Thema drin ist bedienbar,

00:27:47: und damit natürlich auch wenig Frustmomente verbunden,

00:27:51: wo das auch Schell passieren kann und ein Erlebnis kippt,

00:27:54: wenn eben die Bedienung nicht funktioniert,

00:27:57: oder man irgendwelche Varianten schallt, die man gar nicht wollte.

00:27:59: Das heißt, das ist dann schon Tailored immer auf die Wagesstellung im Projekt

00:28:02: und hat dann auch die Varianten in der Regel nur dies braucht,

00:28:06: und die anderen werden eben auch gar nicht eingeblendet,

00:28:08: sodass eben das Werksfokusiert doch diskutiert werden kann.

00:28:11: Nur mal ganz kurz zum Verständnis für unsere Zuhörer.

00:28:14: Wenn ihr von Kunden sprecht, dann sprecht ihr natürlich von den Menschen

00:28:18: in eurem Unternehmen, von den verschiedenen Fachbereichen.

00:28:20: Also nur, dass das jetzt vielleicht noch mal ein bisschen als Klarstellung,

00:28:23: dass das jetzt nicht vor Entkunde jetzt das Ganze hier präsentiert wird,

00:28:27: sondern dass es natürlich eine konzerninterne Thematik

00:28:30: an der Stelle ist, nur dass es nochmal zum Verstehen.

00:28:33: Aber das finde ich jetzt jetzt, da möchte ich nur mal kurz darauf eingehen.

00:28:37: Das ist ein bisschen dieses Thema, das natürlich diese ganze Thema XR,

00:28:41: und das habt ihr ja schön dargestellt, ja auf der einen Seite auch globale Teams zusammenbringt

00:28:47: und da natürlich Aufwände natürlich dramatisch reduziert,

00:28:50: wenn man zum Teil an sich vielleicht auch die eine oder andere Dienstreise,

00:28:53: die vielleicht angestanden hätte in dem Bereich,

00:28:55: um sich in der Vergangenheit vielleicht auch irgendwelche Hardwaremodellen

00:28:58: dann irgendwie tatsächlich zu treffen.

00:29:01: Da geht es ja auch bis rein ins Qualitätsmanagement,

00:29:04: wenn es wirklich auch darum geht tatsächlich irgendwo dann irgendwelche Audits zu machen

00:29:08: oder so, ja das ist natürlich Dinge, wo man sich wirklich dann auch entsprechend in Aufwand sparen kann.

00:29:12: Und ich habe es gerade gesagt, wenn man die Zeit, die man eventuell sonst gewartet hätte, nutzen kann.

00:29:17: Und die andere Sache ist natürlich aber, dass vielleicht auch irgendwo aufbrechen von sie los

00:29:21: zwischen verschiedenen Fachbereichen, also zwischen vielleicht dem Design und dem Engineering.

00:29:26: Da wäre jetzt für mich aber so ein bisschen die Frage,

00:29:28: ihr habt da vorhin auch schön dargestellt, wie natürlich das Ganze auch dazu beitragen kann,

00:29:32: vielleicht in Echtzeit schon bestimmte Bauteilanforderungen,

00:29:35: vielleicht zu integrieren technische Anforderungen zu integrieren,

00:29:38: vielleicht irgendwie auch in Bezug auf das Design den einen oder anderen Freiheitsgrad

00:29:41: vielleicht auch schon mal irgendwo rauszunehmen

00:29:43: und präzitisch schon mal klar zu machen, was überhaupt geht, was überhaupt möglich ist,

00:29:46: damit man schneller eben tatsächlich zu einem entwickelbaren und auch produzierbaren Fahrzeug kommt.

00:29:51: Ist das denn etwas, was sofort auf Gegenliebe gestoßen ist?

00:29:55: Oder sagt vielleicht auch gerade so ein Designer,

00:29:57: na, ich möchte schon aber noch die Freiheit haben sozusagen im luftlichen Raum,

00:30:02: auf der grünen Wiese aber auch mal eine Designsvorstellung,

00:30:05: sozusagen meine Kreativität nicht einzuschränken.

00:30:07: Das würde mich noch mal so ein bisschen interessieren,

00:30:09: oder ob man da direkt eigentlich den Vorteil darin gesehen hat,

00:30:12: eigentlich diese sie los aufzubrechen.

00:30:14: Designer können ja auch manchmal auch etwas älgen sein,

00:30:17: wenn ich es mal vorsichtig formuliere.

00:30:19: Also ich sage mal, dafür ist es ja auch wichtig,

00:30:23: die Kreativität wird dadurch nicht eingeschränkt,

00:30:25: sondern das wird ja über einen Prozess gesteuert.

00:30:27: Ich habe dafür hingegragt, es gibt andere Rollen,

00:30:29: die diese Zielführung verantworten.

00:30:31: Ich würde mich da jetzt mal emotional kurz zurücknehmen,

00:30:34: das geht nur bedingt bei Design natürlich,

00:30:36: weil jeder hat da auch eine Meinung zu.

00:30:38: Es ist ja so, dass die Hauptmodivation ist, das Design zu befähigen und nicht zu behindern.

00:30:43: Das heißt, das wird in der Entwicklungsbereich dann möglicherweise alternative Konzepte entwickelt,

00:30:48: um eine Design-Ede realisierbar zu machen.

00:30:50: Diese werden dann bewertet.

00:30:52: Also was bedeutet das im Fahrzeug?

00:30:54: Ich habe für einen gesagt, Gewichtsauswirkungen,

00:30:56: funktionale Auswirkungen, kostenauswirkungen.

00:30:59: Und dann im Idealfall entschieden, wenn sie aber nicht entschieden werden,

00:31:02: dann gilt natürlich das, dass das Designkonzept,

00:31:06: das natürlich irgendwann auch intelligent umsetzen muss.

00:31:10: Und ich glaube bei BMW ist es bisher eigentlich immer ganz gut gelungen,

00:31:13: also soweit ich das Ergebnis sehen kann.

00:31:17: Und das ist natürlich ein Prozess.

00:31:19: Und da wird es auf keinen Fall negativ gesehen, weil niemand auf,

00:31:22: also zumindest in diesem Unternehmen hat hier bewusst die Motivation,

00:31:26: in die falsche Richtung zu arbeiten,

00:31:28: weil es zählt nur das, was auf die Straße kommt.

00:31:30: Also das ist das, was wirksam ist, was bei unseren Kunden

00:31:33: tatsächlich, sag ich mal, die Freude macht

00:31:35: und alles, was wir da intern vorher an fixen Ideen haben

00:31:38: und aber nicht realisieren können, ist halt im Endeffekt nichts wert, möchte ich nicht sagen.

00:31:43: Vielleicht ist es auch manchmal etwas, was dann in einer nächsten Generation technisch befähigiert

00:31:47: und dann die entsprechenden Lösungen dazu erarbeitet werden.

00:31:50: Aber wir unterstützen diesen Prozess ja nun.

00:31:52: Da erlebe ich ja nicht durchweg positive Resonanz.

00:31:54: Also das Unternehmen nimmt das in allen Ebenen an.

00:31:57: Ein Argument dabei ist ja auch sozusagen den Mehrwert auch zu quantifizieren.

00:32:02: Also zum Beispiel in gewissen KPIs auch darzustellen.

00:32:06: Gibt es das, kann man das irgendwie anhand von Zahlen bei euch auch belegen,

00:32:10: welche Effizienzvorschrünge man jetzt dadurch erreichen kann?

00:32:13: Ja, also ich sage mal natürlich, wenn wir Hardware-Modelle rausnehmen,

00:32:16: ist es relativ schnell ausweisbar, indem man einfach die Kosten natürlich aufzeigt.

00:32:20: Aber natürlich auch die Verkürzung von Entwicklungszyklen,

00:32:23: was dann natürlich noch effizienter ist und natürlich deutlich noch mal mehr Kosten einig,

00:32:28: natürlich rauszunehmen, wenn ich mit einem ganzen Team kürzer entwickle.

00:32:31: Ich kann natürlich nicht über Zahlen sprechen, aber das liegt auf der Hand,

00:32:34: dass das natürlich der Hauptstellhebel ist.

00:32:36: Das heißt schneller in Varianten und dann fokussiert in die bis zur Präzision

00:32:41: über einen virtuellen Fahrt komplett diese Daten zu entwickeln.

00:32:44: Und das Thema Präzision gehört natürlich auch dazu.

00:32:47: Jetzt haben wir gerade über Designkonzepte gesprochen.

00:32:49: In einer späteren Phase geht es dann natürlich auch um jedes Zehntel

00:32:52: und um jedes Eckchen im Detail und in seinen Grenzlagen.

00:32:56: Und auch das ist etwas, was wir eigentlich virtuell mittlerweile sehr gut beherrschen

00:33:00: und da auf maximal nutzen.

00:33:02: Herr Christ Thorsten, die Zeit ist schon weit fortgeschritten.

00:33:07: Wir haben von euch wirklich einen ganz, ganz tollen Einblick bekommen.

00:33:10: Ich würde zum Abschluss aber ganz gerne schon nochmal so ein kleines bisschen

00:33:13: den Blick nach vorne werfen wollen.

00:33:15: Was sind denn so die Entwicklungen, die ihr euch vielleicht auch einmal

00:33:19: aus der IT-Digitalisierungsenabler Sicht, aber auch aus der Anwendersicht

00:33:23: der internen sozusagen noch vorstellen könnt?

00:33:26: Was sind denn die Schritte, die da vielleicht in den nächsten Jahren

00:33:29: ohne dass man jetzt immer zu stark antizipieren kann,

00:33:32: was eigentlich technologisch dann wirklich dann doch noch auf einen zukommt?

00:33:34: Da geht es auch immer darum schnell auch das nutzbar zu machen,

00:33:37: was dann am Horizont sozusagen sichtbar wird.

00:33:40: Aber was sind so eure Vorstellungen, wo das Ganze vielleicht noch hingehen kann?

00:33:44: Klar, starten wir mal mit dem Punkt.

00:33:48: Wir haben ja gesehen, die Nutzungszahlen sind stark gestiegen.

00:33:52: Und ich hatte das anfangs erwähnt, dass wir mit diesem 120-prozentigen Zuwachs

00:33:56: an den Usern darauf aufgesetzt haben.

00:34:01: Wir haben aktuell circa 140 Brillen in der Organisation.

00:34:05: Da ist auf jeden Fall noch Raum nach oben.

00:34:08: Wir haben vereinfacht ein Prozess, wie man diese Brillen auch beschaffen kann,

00:34:11: dass sie dementsprechend auch in unsere Infrastruktur mit eingebunden ist.

00:34:16: Das heißt, dass ich noch vereinfachter eben auf diese Modelle zugreifen kann.

00:34:22: Das ist definitiv ein Thema, das ist eher so prozessual,

00:34:25: und das wird noch mehr in die Breite bekommen.

00:34:27: Und dann diese Verknüpfung von Spatial Computing.

00:34:31: Da sind wir noch die Definitionsschuldig.

00:34:35: Genau, und von KI.

00:34:39: Und das ist meines Erachtens ein superspannender Bereich,

00:34:42: weil wir natürlich anonymisiert Daten aggregieren können

00:34:47: und auf bestimmte Bauteile oder Design-Elemente mapen können.

00:34:51: Und da sehe ich keinen Effizienzgewinn,

00:34:56: sondern das ist eigentlich, wie wir unser Design noch mehr

00:34:59: an den Kunden ausrichten können.

00:35:01: Das finde ich ein superspannender Teil, wo wir gerade investieren.

00:35:06: Ich schließe mich mal an.

00:35:08: Das Thema Brillen würde ich auch so sehen,

00:35:11: dass es eigentlich so normal sein muss, wie ein Office-Laptop

00:35:14: für jemanden, der mit Daten agiert.

00:35:16: Also dass diese Daten nämlich jetzt nicht festlegen,

00:35:18: auf was für eine Brille das sein muss,

00:35:20: aber dass diese jederzeit eigentlich an den Daten diskutiert wird

00:35:22: und nicht über, ich nenne es jetzt mal irgendwelche Office-Formate,

00:35:25: Bilder von Daten gemacht werden, um darüber zu reden.

00:35:28: Also das ist für mich eigentlich der Schlüssel,

00:35:30: dass wir direkt an den Daten arbeiten.

00:35:32: Das tun wir in unserem Bereich schon, aber ich glaube,

00:35:34: das gibt es in der Breite noch viel Potenzial,

00:35:36: was man da seitens mal ausschöpfen kann.

00:35:38: Und das andere ist, wo ich für ihn noch etwas verhaltenweise,

00:35:41: ich sehe schon das Thema KI in der brutalen Relevanz,

00:35:44: um die Variantenkomplexität in Griff zu bekommen.

00:35:47: Also hinsichtlich dem, wie wir die Daten heute strukturieren müssen,

00:35:51: ist es noch sehr viel, nicht komplett menschlicher manueller Aufwand,

00:35:54: aber sehr viel Gieren und Wissen, was man reinstecken muss,

00:35:59: um Varianten abbilden zu können.

00:36:01: Und wenn man jetzt mal auch daran denkt,

00:36:03: dass eine Produktangebotslogik dann auch mit Ausschlüssen noch operiert,

00:36:05: also dass halt gewisse Konfigurationen nur mit gewissen Ausstattungen

00:36:09: zusammen funktionieren, dann entsteht da relativ schnell

00:36:12: eine hohe Komplexität, weil wir in unserer Phase ja nicht nur

00:36:16: über die Kundenvarianten reden, sondern Varianten dieser Varianten.

00:36:20: Also um zu entscheiden, welche denn die Beste ist,

00:36:23: die zum Schluss zum Kunde geht, in diese eine Kundenvariante.

00:36:26: Da ist eine riesige Skalierung an Variants drin.

00:36:29: Und da, glaube ich, kann man mit Machine Learning auch schon noch mal viel machen

00:36:32: über Datenstrukturen, ob das dann auch andere Datenformate sind,

00:36:36: wenn man an Justi oder solche Sachen,

00:36:37: denke ich mal, da sind Potenziale drin,

00:36:39: mit denen werden wir uns oder beschäftigen wir uns ja natürlich

00:36:42: und da wird auch noch viel passieren.

00:36:44: Ich freue mich da drauf.

00:36:45: Ja, wir freuen uns auch drauf.

00:36:47: Thorsten und Küs, wir schauen mal, wie sich die Autoindustrie

00:36:50: in Zukunft noch in virtuelle Welten bewegen wird,

00:36:52: in welche Höhen und Tiefen der virtuellen Welt sich bewegen wird.

00:36:56: Wir werden natürlich hier auch alles, was wir hier besprochen haben,

00:36:59: haben wir ja zum Beispiel auch in einem Beitrag bei uns bei AutoMoto.com.

00:37:01: Das werden wir natürlich noch mal verlinken.

00:37:03: Und es bietet sich ja bei dem Thema auch an,

00:37:05: das vielleicht noch mal ein bisschen zu verbildlichen.

00:37:07: Also wir werden da sicherlich auch noch mal das ein oder andere auch von euch

00:37:09: finden, von BMW, wie man das dann auch vielleicht noch mal unseren

00:37:12: Zuhörerinnen auch noch mal bildlich darstellen kann.

00:37:14: Wir danken euch ganz herzlich für das Gespräch an dieser Stelle.

00:37:17: Vielen Dank und dann bis zur nächsten Woche an unseren Zuhörern.

00:37:21: Bis dahin, ciao.

00:37:23: Vielen Dank, ciao.

00:37:25: Was mich bewegt.

00:37:27: Ein Podcast von Automotive IT und Automobilproduktion.

00:37:31: Alle Infos zur Folge in den Showrooms.

00:37:33: Weitere Folgen überall, wo es Podcasts gibt.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.