Open Menu

Mobile World Congress 2026 zeigt den Aufstieg intelligenter Infrastruktur

Mobile World Congress 2026 zeigt den Aufstieg intelligenter Infrastruktur
Impressionen vom Mobile World Congress 2026 in Barcelona

Foto: © Ulrich Buckenlei | Visoric GmbH

Während der Mobile World Congress 2026 in Barcelona noch läuft, zeichnet sich bereits eine klare Entwicklung ab. Intelligente Netze, Künstliche Intelligenz und Extended Reality wachsen zur tragenden Infrastruktur moderner Wertschöpfung zusammen.

In den Messehallen wird deutlich, dass es nicht mehr um einzelne Produkte geht. Sichtbar wird ein struktureller Wandel. Systeme werden so entwickelt, dass sie Situationen verstehen und unmittelbar handeln können. Intelligenz rückt näher an den Ort des Geschehens.

Von der Cloud Logik zur situativen Intelligenz am Netzrand

Über viele Jahre hinweg folgte die Digitalisierung einer klaren technischen Logik. Daten wurden lokal erfasst, anschließend in zentrale Rechenzentren übertragen und dort verarbeitet. Die eigentliche Intelligenz lag fast immer in großen Cloud-Infrastrukturen. Entscheidungen wurden berechnet und danach zurück an Maschinen, Systeme oder Anwendungen übertragen.

Dieses Modell funktionierte gut, solange Datenmengen überschaubar waren und Entscheidungen nicht in Echtzeit getroffen werden mussten. Mit dem rasanten Fortschritt der Künstlichen Intelligenz und der steigenden Anzahl vernetzter Geräte stößt diese Architektur jedoch zunehmend an ihre Grenzen.

Auf dem Mobile World Congress 2026 wird deshalb ein deutlicher Wandel sichtbar. Immer mehr Rechenleistung wandert näher an den Ort, an dem Daten entstehen. Systeme werden so konzipiert, dass sie Situationen unmittelbar analysieren und Entscheidungen direkt vor Ort treffen können.

Der technische Hintergrund ist klar: Modelle werden effizienter, Hardware leistungsfähiger und Netzinfrastrukturen stabiler. Dadurch entstehen neue Möglichkeiten, Intelligenz nicht nur zentral, sondern verteilt im gesamten System zu betreiben.

  • Systeme gewinnen Kontext und Situationsverständnis
  • Entscheidungen erfolgen unmittelbar am Entstehungsort
  • Abhängigkeiten von zentraler Infrastruktur werden reduziert

AI Data Center Infrastruktur auf dem Mobile World Congress 2026

AI Data Center Infrastruktur auf dem Mobile World Congress 2026 in Barcelona

Foto: © Ulrich Buckenlei | Visoric GmbH

Die Demonstration solcher Systeme ist auf dem Mobile World Congress an vielen Ständen zu sehen. Hersteller präsentieren komplette AI-Infrastrukturen, die speziell für den Betrieb moderner KI-Anwendungen entwickelt wurden. Dabei geht es nicht nur um reine Rechenleistung, sondern um ein Zusammenspiel aus spezialisierten Prozessoren, Hochgeschwindigkeitsnetzwerken, energieeffizienter Kühlung und optimierter Softwarearchitektur.

Solche Systeme bilden die Grundlage für eine neue Generation intelligenter Anwendungen. Produktionsanlagen können Prozesse in Echtzeit überwachen, Logistiksysteme reagieren dynamisch auf Veränderungen und technische Infrastrukturen passen sich automatisch an neue Situationen an.

Der Wandel betrifft damit nicht nur einzelne Technologien, sondern die gesamte Architektur digitaler Systeme. Intelligenz wird zu einer verteilten Fähigkeit, die dort verfügbar ist, wo sie benötigt wird. Genau diese Entwicklung prägt viele der Innovationen, die auf dem Mobile World Congress 2026 vorgestellt werden.

Embodied AI als neues Entwicklungsparadigma

Ein Begriff prägt viele Gespräche auf dem Mobile World Congress 2026 besonders deutlich: Embodied AI. Gemeint sind Systeme, die ihre Umgebung wahrnehmen, interpretieren und eigenständig handeln können. Intelligenz bleibt dabei nicht abstrakt in Softwaremodellen verborgen, sondern wird in physische Systeme integriert, die mit der realen Welt interagieren.

Während klassische Künstliche Intelligenz vor allem Daten analysierte, erweitert Embodied AI diese Fähigkeit um Wahrnehmung und Handlung. Sensoren erfassen Situationen, Modelle interpretieren die Umgebung und mechanische oder digitale Systeme setzen Entscheidungen unmittelbar um. Intelligenz wird damit nicht nur berechnet, sondern sichtbar.

Gerade auf Technologiemessen wie dem Mobile World Congress lässt sich dieser Wandel besonders anschaulich beobachten. Humanoide Roboter, autonome Maschinen und intelligente Assistenzsysteme demonstrieren, wie KI zunehmend in physische Systeme integriert wird. Statt ausschließlich Daten zu verarbeiten, übernehmen solche Systeme konkrete Aufgaben.

  • Lernprozesse werden kontinuierlich fortgeführt
  • Reale und ergänzende Trainingsdaten werden kombiniert
  • Modelle verbessern sich direkt im Einsatz

Humanoider Roboter demonstriert Embodied AI auf dem Mobile World Congress 2026

Humanoider Roboter demonstriert Kalligrafie auf einem Partnerstand während des Mobile World Congress 2026

Foto: © Ulrich Buckenlei | Visoric GmbH

Die Demonstration solcher Fähigkeiten verdeutlicht den grundlegenden Unterschied zu früheren KI-Systemen. Während viele Anwendungen bislang im Hintergrund arbeiteten, tritt Embodied AI sichtbar in Erscheinung. Maschinen können Objekte greifen, Werkzeuge benutzen oder – wie in dieser Demonstration – präzise Bewegungsabläufe ausführen.

Technisch basiert diese Entwicklung auf einer Kombination aus Sensorik, Robotik und leistungsfähigen KI-Modellen. Kameras erfassen die Umgebung, neuronale Netze interpretieren visuelle Informationen und Steuerungssysteme setzen diese Erkenntnisse in Bewegungen um. Dadurch entstehen Systeme, die nicht nur analysieren, sondern handeln können.

Für Unternehmen bedeutet das einen grundlegenden Perspektivwechsel. Künstliche Intelligenz wird nicht länger nur als Softwarelösung betrachtet, sondern als Teil einer neuen technischen Infrastruktur. Wahrnehmung, Analyse und Handlung werden in einem System miteinander verbunden.

Der Mobile World Congress 2026 zeigt damit deutlich, dass sich KI von einem reinen Analysewerkzeug zu einer operativen Technologie entwickelt. Embodied AI wird in Zukunft eine zentrale Rolle spielen – in Robotik, industrieller Automatisierung, Logistik und vielen weiteren Bereichen, in denen intelligente Systeme direkt mit der physischen Welt interagieren.

Verteiltes Lernen als Grundlage skalierbarer Systeme

Ein zentraler Baustein dieser Entwicklung ist verteiltes Lernen. Erkenntnisse werden lokal gewonnen, ohne dass sämtliche Rohdaten an zentrale Systeme übertragen werden müssen. Dadurch lassen sich sensible Daten schützen und gleichzeitig gemeinsame Verbesserungen erzielen.

Gerade in regulierten Branchen oder in Umgebungen mit begrenzter Netzabdeckung eröffnet dieser Ansatz neue Möglichkeiten. Maschinen, Sensoren und Produktionssysteme können Daten vor Ort analysieren und daraus lernen, während nur ausgewählte Erkenntnisse oder Modellanpassungen weitergegeben werden. Auf diese Weise entsteht ein Netzwerk intelligenter Systeme, das gemeinsam besser wird, ohne die Kontrolle über Daten zu verlieren.

  • Wissen wird geteilt, Daten bleiben häufig vor Ort
  • Skalierung gelingt auch bei sensiblen Anwendungen
  • Systeme werden robuster gegenüber Störungen

Industrielle KI Plattform für Digital Twins und Robot Training auf dem Mobile World Congress 2026

Industrielle Plattformen für Digital Twins und Robot Training auf dem Mobile World Congress 2026

Foto: © Ulrich Buckenlei | Visoric GmbH

Auf dem Mobile World Congress 2026 lassen sich solche Konzepte an vielen Ständen beobachten. Hersteller zeigen Plattformen, auf denen industrielle Anwendungen trainiert, simuliert und anschließend in reale Systeme übertragen werden können. Besonders häufig fällt dabei der Begriff des digitalen Zwillings.

Digitale Zwillinge ermöglichen es, komplexe Maschinen oder ganze Produktionslinien virtuell abzubilden. In dieser simulierten Umgebung können Modelle trainiert, Fehler analysiert und neue Abläufe getestet werden, bevor sie in der realen Welt eingesetzt werden. Das reduziert Risiken und beschleunigt die Entwicklung neuer Anwendungen erheblich.

Im Zusammenspiel mit verteilten Lernmethoden entsteht daraus eine leistungsfähige Infrastruktur. Systeme lernen lokal aus ihren Erfahrungen, während übergreifende Plattformen neue Erkenntnisse zusammenführen und weiterentwickeln. So lassen sich Roboter, Produktionssysteme oder autonome Geräte kontinuierlich verbessern, ohne jedes System einzeln neu trainieren zu müssen.

Genau diese Kombination aus lokaler Intelligenz und zentraler Koordination wird in den kommenden Jahren eine entscheidende Rolle spielen. Sie erlaubt es Unternehmen, KI nicht nur in einzelnen Anwendungen zu nutzen, sondern über ganze Infrastrukturen hinweg zu skalieren.

So entsteht Schritt für Schritt eine neue Form industrieller Intelligenz: verteilt, lernfähig und eng mit realen Prozessen verbunden.

Extended Reality als Schnittstelle intelligenter Systeme

Während künstliche Intelligenz zunehmend Entscheidungen trifft und Systeme autonomer werden, stellt sich eine zentrale Frage: Wie greifen Menschen auf diese komplexen digitalen Strukturen zu? Genau an dieser Stelle gewinnt Extended Reality eine neue Bedeutung.

XR-Technologien ermöglichen es, digitale Informationen direkt im räumlichen Kontext darzustellen. Daten, Simulationen oder Zustände von Maschinen werden nicht mehr ausschließlich auf klassischen Bildschirmen angezeigt, sondern dreidimensional im Raum visualisiert. Nutzer können digitale Modelle betrachten, verändern und mit ihnen interagieren, während sie gleichzeitig in ihrer realen Umgebung bleiben.

Diese Art der Darstellung verändert die Interaktion zwischen Mensch und digitaler Infrastruktur grundlegend. Komplexe Daten lassen sich intuitiver erfassen, Zusammenhänge werden schneller sichtbar und Entscheidungen können auf einer deutlich besseren Informationsbasis getroffen werden.

  • Komplexe Daten werden räumlich visualisiert
  • Digitale Zwillinge lassen sich direkt im Arbeitskontext erleben
  • Mensch und KI arbeiten enger zusammen

Samsung Galaxy XR Headset Demonstration auf dem Mobile World Congress 2026

Hands-on Demonstration des Samsung Galaxy XR Headsets (Project Moohan) auf dem Mobile World Congress 2026

Foto: © Ulrich Buckenlei | Visoric GmbH

Gerade im industriellen Umfeld eröffnen solche Technologien neue Möglichkeiten. Ingenieure können digitale Zwillinge von Maschinen analysieren, Wartungsschritte visualisieren oder Produktionsprozesse simulieren. Komplexe technische Systeme werden dadurch verständlicher und Entscheidungen lassen sich schneller treffen.

Auf dem Mobile World Congress 2026 wird außerdem sichtbar, dass sich neben Apple ein weiteres XR-Ökosystem entwickelt. Samsung und Google arbeiten gemeinsam an einer neuen Gerätegeneration, die auf der Plattform Android XR basiert. Das Samsung Galaxy XR Headset, intern unter dem Namen Project Moohan entwickelt, gehört zu den ersten Geräten dieser neuen Plattform.

Diese Geräte sollen künftig nicht nur für Unterhaltung genutzt werden, sondern auch für industrielle Anwendungen, Planung, Training und Zusammenarbeit. XR entwickelt sich damit zu einer Schnittstelle, über die Menschen mit komplexen digitalen Systemen interagieren können.

Während künstliche Intelligenz Daten analysiert und Prozesse optimiert, übersetzt Extended Reality diese Informationen in eine räumlich verständliche Form. Nutzer sehen nicht nur Daten, sondern erleben sie im Kontext ihrer Umgebung.

Damit wird XR zunehmend zu einer operativen Benutzeroberfläche für die nächste Generation digitaler Infrastruktur – eine Entwicklung, die auf dem Mobile World Congress 2026 an vielen Demonstrationen deutlich sichtbar wird.

Kontaktpersonen:
Ulrich Buckenlei (Kreativdirektor)
Mobil: +49 152 53532871
E-Mail: ulrich.buckenlei@visoric.com

Nataliya Daniltseva (Projektleiterin)
Mobil: + 49 176 72805705
E-Mail: nataliya.daniltseva@visoric.com

Adresse:
VISORIC GmbH
Bayerstraße 13
D-80335 München

Die mit * gekennzeichneten Felder sind Pflichtfelder.

Arrow right icon