Postavke privatnosti

Roboter, bau mir einen Stuhl: Wie das MIT generative KI und Roboter für modulare Möbel verbindet

Das MIT entwickelt Systeme, die aus einfachen Text- und Sprachanweisungen 3D-Modelle generieren und in physische Möbel umwandeln. Generative künstliche Intelligenz und Robotermontage beschleunigen zusammen das Design, reduzieren Abfall und ebnen den Weg für eine lokale, nachhaltige Produktion anpassungsfähiger Objekte.

Roboter, bau mir einen Stuhl: Wie das MIT generative KI und Roboter für modulare Möbel verbindet
Photo by: Domagoj Skledar - illustration/ arhiva (vlastita)

Sich in einen Sessel zurücklehnen und einen einfachen Satz aussprechen wie: „Bau mir einen Stuhl“, und dann zusehen, wie ein Roboterarm in wenigen Minuten ein physisches Objekt vor Ihnen zusammenbaut – noch bis vor kurzem klang das wie eine Szene aus der Science-Fiction. Im Dezember 2025 ist dies Realität in den Labors des Massachusetts Institute of Technology (MIT), wo Forscher generative künstliche Intelligenz, Systeme für Computersehen und Robotermontage zu einem einzigartigen, vollautomatischen Design- und Fertigungsprozess verbinden.


Anstatt des klassischen computergestützten Designs (CAD), das Expertenkenntnisse, stundenlanges Modellieren und detaillierte Softwarekenntnisse erfordert, ermöglicht das neue, auf künstlicher Intelligenz basierende System, ein komplexes, mehrkomponentiges Objekt in gewöhnlicher Sprache zu beschreiben. Modelle der generativen künstlichen Intelligenz erstellen aus Text eine dreidimensionale Darstellung des gewünschten Gegenstands, und anschließend zerlegt ein Vision-Language-Model (VLM) diese Geometrie in standardisierte physische Teile, die der Roboter sofort zu montieren beginnen kann.


Es handelt sich um eine Forschungsarbeit, die zeigt, wie die Lücke zwischen digitalem Design und physischer Produktion dramatisch verringert werden kann. Dasselbe Team ist in den letzten Monaten noch einen Schritt weiter gegangen: Basierend auf denselben Prinzipien wurde ein „Speech-to-Reality“-System entwickelt, das nicht einmal mehr das Tippen von Text erfordert – es genügt, die Bestellung auszusprechen, und modulare Möbel und andere Gegenstände entstehen in nur wenigen Minuten.


Warum das klassische CAD zum Design-Flaschenhals wurde


Computergestützte Designwerkzeuge sind nach wie vor der Standard in der Industrie, von der Automobil- und Luftfahrtindustrie bis hin zum Bauwesen und der Unterhaltungselektronik. Doch dieselben Werkzeuge, die leistungsstark und präzise sind, stellen gleichzeitig eine Barriere für alle dar, die kein Spezialwissen haben. Die Lernkurve ist steil, die Schnittstellen sind komplex, und die detaillierte Kontrolle über jede Schraube oder Oberfläche ist in den frühen Phasen eines Projekts oft übertrieben, wenn es für den Benutzer am wichtigsten ist, schnell mehrere Ideen auszuprobieren und sie im physischen Raum zu sehen.


Generative KI hat in den letzten Jahren gezeigt, dass sie aus kurzem Text Bilder, 3D-Modelle und ganze virtuelle Szenen erstellen kann. Doch die meisten dieser digitalen Objekte bleiben in der virtuellen Welt gefangen. Die von den Modellen erzeugte Geometrie ist oft unregelmäßig, hat keine klare Komponentenstruktur und berücksichtigt nicht die Einschränkungen der physischen Produktion. Mit anderen Worten: Was auf dem Bildschirm gut aussieht, bedeutet nicht unbedingt, dass es in der Realität einfach, schnell und kostengünstig zusammengebaut werden kann.


Der Ansatz des MIT setzt genau hier einen neuen Standard: Ziel ist es nicht nur, ein schönes digitales Modell zu generieren, sondern es in eine Form zu bringen, die für die automatische Montage aus vorgefertigten Elementen geeignet ist. Damit hört generative KI auf, ein Werkzeug zur Inspiration zu sein, und wird Teil einer echten Produktionslinie.


Vom Text zum 3D-Modell: Wie das System Geometrie und Funktion „versteht“


Die Arbeit geht von einer einfachen Interaktion aus: Der Benutzer gibt eine Anforderung in eine Textschnittstelle ein – zum Beispiel „bau mir einen Stuhl“ oder „ich brauche ein Regal mit drei Ebenen“. Ein generatives 3D-Modell erstellt auf der Grundlage dieser Beschreibung eine netzartige Darstellung des Objekts, bekannt als Mesh. Dieses Netz beschreibt die Oberfläche und das Volumen des zukünftigen Gegenstands, sagt aber noch nichts darüber aus, aus welchen physischen Teilen er bestehen und wie diese verbunden sein werden.


Im nächsten Schritt übernimmt das Vision-Language-Model die Rolle, eine Art generatives KI-System, das auf einer großen Menge an Bildern, textuellen Beschreibungen und Aufgaben zum Szenenverständnis trainiert wurde. Seine Aufgabe ist es, das dreidimensionale Modell „anzusehen“ und zu schlussfolgern, was die funktionalen Einheiten des Objekts sind: wo sich der Sitz befindet, wo die Lehne, wo die Beine, was Oberflächen sind, an die sich der menschliche Körper lehnen wird, und was Elemente sind, die primär die Konstruktionslast tragen.


Die Forscher arbeiten mit zwei grundlegenden Gruppen vorgefertigter Komponenten: Strukturelementen, die das Skelett des Objekts bilden, und Plattenelementen (Panel), die flache Oberflächen wie Sitzflächen oder Regalböden formen. Das Vision-Language-Model muss auf der Grundlage von Geometrie und Funktion entscheiden, wo welcher Komponententyp verwendet wird. So erkennt es beispielsweise, dass Sitz und Rückenlehne eines Stuhls Platten benötigen, während Beine und Querverbindungen in Struktursegmenten ausgeführt bleiben.


Was diesen Ansatz besonders interessant macht, ist die Tatsache, dass sich das Modell nicht auf manuell programmierte Regeln für einen Stuhl, ein Regal oder einen Tisch stützt. Stattdessen nutzt es das Wissen, das während des Lernens an vielen Bildern und Beschreibungen von Objekten erworben wurde, um auf neue, von KI generierte Formen zu verallgemeinern. Aus diesem Grund kann dasselbe System ohne zusätzliches Training mit verschiedenen Arten von Möbeln und anderen funktionalen Gegenständen arbeiten.


Komponentenzuweisung und Vorbereitung für die Robotermontage


Nachdem das Vision-Language-Model ein Verständnis der Funktion aufgebaut hat, wechselt das System auf die praktische Ebene: Für jede Oberfläche auf dem 3D-Netz weist es Markierungen zu, die definieren, ob dort ein Plattenelement eingebaut werden soll oder nicht. Oberflächen werden nummeriert, und die Komponentenzuweisungen werden in das Modell zurückgeführt, um sie weiter mit der Geometrie und den physischen Montageeinschränkungen abzustimmen.


Das Ergebnis ist ein strukturiertes Modell, in dem jeder Teil des Objekts mit einem der vordefinierten Typen von Fertigteilen verknüpft ist. Dies ist der entscheidende Schritt, der es ermöglicht, das digitale Design in einen konkreten Satz von Anweisungen für den Roboterarm zu übersetzen: wie viele Elemente benötigt werden, wo sie platziert werden, in welcher Reihenfolge sie verbunden werden und wie Kollisionen während der Montage vermieden werden.


Das Robotersystem übernimmt dann den vorbereiteten Plan und beginnt, das Objekt auf der Arbeitsfläche zusammenzubauen. Da alle Teile standardisiert und wiederverwendbar sind, ist der Prozess schnell und sehr sauber: keine Späne, keine Wartezeit auf das Trocknen von Leim, kein Abfall, der im Müll landet. Wenn der Benutzer dieses Möbelstück nicht mehr benötigt, kann es zerlegt und aus denselben Teilen etwas völlig Neues zusammengebaut werden.


Mensch-Roboter-Co-Autorschaft: Der Benutzer bleibt in der Schleife


Obwohl das System einen großen Teil des Prozesses automatisiert, betonten die Forscher die Wichtigkeit, dass der Mensch ein kreativer Partner bleibt. Nach dem anfänglichen Designvorschlag kann der Benutzer in natürlicher Sprache zusätzliche Anweisungen geben: zum Beispiel verlangen, dass Platten nur an der Lehne und nicht am Sitz sein sollen, dass der Stuhl niedriger oder höher sein soll, dass das Regal mehr Ebenen haben soll oder dass der Schwerpunkt auf visueller Luftigkeit statt auf voller Oberfläche liegen soll.


Jede solche Änderung aktiviert erneut das generative Modell und das Vision-Language-Modul, die die neue Beschreibung mit dem bestehenden 3D-Modell und der Komponentenstruktur abgleichen. Auf diese Weise entsteht ein iterativer kreativer Zyklus: Das System schlägt Lösungen vor, der Benutzer lenkt und korrigiert sie, und der Roboter verwandelt sie in physische Prototypen. Anstatt sich mit präzisen Koordinaten und Parametern zu befassen, denkt der Mensch über Funktion, Ästhetik und Nutzungsszenarien nach.


Ein solcher „Human-in-the-Loop“-Ansatz hat auch eine wichtige psychologische Dimension. Teilnehmer von Benutzerstudien hoben oft das Gefühl der Co-Autorschaft über Objekte hervor, die formal von einem Roboterarm zusammengebaut wurden: Sie empfanden das Endergebnis als „ihren“ Stuhl oder ihr Regal, gerade weil sie es durch das Gespräch mit dem System geformt haben und nicht durch Klicken auf einer komplexen CAD-Oberfläche.


Ergebnisse der Benutzertests: Präferenz für KI-Design


Um den Wert ihres Ansatzes quantitativ zu bewerten, führten die Forscher eine Studie durch, in der die Teilnehmer verschiedene Versionen derselben Objekte bewerteten. Eine Gruppe von Designs entstand mit Hilfe ihres KI-betriebenen Systems mit Vision-Language-Model, eine andere wurde durch einen Algorithmus generiert, der Platten mechanisch auf alle nach oben gerichteten horizontalen Oberflächen platziert, während die dritte das Ergebnis einer zufälligen Anordnung von Platten war.


Mehr als neunzig Prozent der Teilnehmer bevorzugten Objekte, die mit dem System entstanden, das generative KI und VLM kombiniert, im Vergleich zu alternativen Ansätzen. Sie hoben besonders die logische Anordnung von Oberflächen zum Sitzen oder Ablegen, das Gefühl struktureller Stabilität sowie die visuelle Harmonie des Ganzen hervor. Die zufällige Anordnung von Platten wurde als chaotisch empfunden, und die rein geometrische Regel „alle waagerechten Flächen mit Platten bedecken“ erwies sich als zu grob, um die tatsächlichen Bedürfnisse der Benutzer zu befriedigen.


Der Montageprozess erwies sich auch als zeiteffizient. Dank standardisierter Strukturmodule und Platten konnte der Roboter in kurzer Zeit eine ganze Reihe verschiedener Konfigurationen zusammenbauen – von einfachen Stühlen und Hockern über Regale bis hin zu komplexeren Möbelstücken, die in der klassischen Produktion die Herstellung spezieller Werkzeuge oder Formen erfordern würden.


Vom Text zur Sprache: „Speech-to-Reality“ als logischer nächster Schritt


Basierend auf den Erfahrungen aus der Arbeit mit textuellen Beschreibungen erweiterte das Team das Konzept auch auf Sprache. Das neue „Speech-to-Reality“-System beseitigt auch die letzte technologische Barriere für unerfahrene Benutzer: Es ist nicht mehr nötig, sich kurze schriftliche Anweisungen auszudenken, es genügt, im Raum zu sagen, dass man einen einfachen Stuhl, ein Bücherregal oder einen kleinen Beistelltisch möchte.


Das Sprachsignal durchläuft zunächst eine Standardverarbeitung und wird in Text umgewandelt, woraufhin dieselbe generative KI-Infrastruktur übernimmt: Das Modell generiert eine 3D-Form, das System zerlegt sie in modulare Komponenten, und der Planer bestimmt die optimale Reihenfolge und Art des Zusammenbaus. Das Ergebnis ist eng mit der früheren Arbeit am Text verbunden, aber die Benutzererfahrung ist noch natürlicher – die Kommunikation mit dem Roboter wird immer ähnlicher einem Gespräch mit einem menschlichen Tischler oder Designer.


Anstatt zweier Typen von Fertigteilen stützt sich „Speech-to-Reality“ in der ersten Implementierung auf ein Netz identischer würfelförmiger Module, die der Roboter zu einer Gitterstruktur stapelt. Ein solcher voxelbasierter Ansatz erleichtert die Diskretisierung komplexer Geometrie: Sei es ein Stuhl, ein Regal, ein kleiner Tisch oder ein dekorativer Hund, das Objekt kann in eine Kombination von Würfeln zerlegt werden, die der Roboter leicht greift, positioniert und verbindet.


Experimente im Labor zeigten, dass das System in nur wenigen Minuten einfachere Möbelstücke herstellen kann, die stabil genug für den täglichen Gebrauch unter Prototyp-Bedingungen sind. Die Forscher arbeiten parallel an der Verbesserung der Verbindungsweise der Module, damit die Konstruktion größeren Belastungen standhält; magnetische Verbindungen, die für eine schnelle Montage praktisch sind, planen sie durch robustere mechanische Verbindungselemente zu ersetzen.


Nachhaltigkeit, lokale Produktion und Potenzial für die Industrie


Eines der Schlüsselmotive hinter diesen Forschungen ist die Frage der Nachhaltigkeit. Heutige Möbel werden meist in zentralisierten Fabriken hergestellt und dann über große Entfernungen transportiert. Jede Designänderung bedeutet eine neue Produktionsserie, neue Werkzeuge und zusätzliche Logistikkosten. Systeme, die generative KI, modulare Komponenten und Robotermontage kombinieren, bieten ein radikal anderes Szenario: Design und Produktion können lokal, fast auf Abruf stattfinden.


Anstatt ein fertiges Produkt zu bestellen, könnte der Benutzer in Zukunft „Rezepte“ für Objekte bestellen – parametrische Beschreibungen und einen Satz von Regeln, die dann ein lokales Robotersystem in Gang setzen. Ein Satz standardisierter Module könnte mehrfach für völlig unterschiedliche Konfigurationen von Möbeln, Ausstellungseinrichtungen, temporären Baustrukturen oder Laborexperimenten verwendet werden. Wenn sich die Bedürfnisse ändern, werden die Objekte zerlegt und das Material kehrt in den Kreislauf zurück.


Für die Industrie, insbesondere für Bereiche wie Luftfahrt oder fortschrittliche Architektur, bedeuten solche Systeme die Möglichkeit eines schnellen physischen Prototypings komplexer Geometrien, die schwer manuell zusammenzubauen sind. Die Forscher betonen, dass dieselbe Computerumgebung mit mehreren Roboterzellen verbunden werden kann, wodurch der Weg zur Skalierung vom Tisch-Roboterarm bis zu ganzen Fabriken geebnet wird, in denen die Grenze zwischen Designstudio und Produktionshalle immer weniger sichtbar ist.


Technische Grenzen und offene Forschungsfragen


Obwohl die Ergebnisse beeindruckend wirken, hat das System noch klare Einschränkungen. Generative Modelle produzieren manchmal Geometrien, die sehr skulptural, aber ohne Kompromisse schwer in eine modulare Struktur zu übersetzen sind. Das Vision-Language-Model versteht Physik nicht auf dem Niveau eines Ingenieurs; seine „Intuition“ darüber, was stabil ist und was nicht, entspringt der Datenstatistik und nicht festen mechanischen Berechnungen.


Daher untersuchen die Forscher, wie zusätzliche Simulationen und Überprüfungen in den Prozess einbezogen werden können: von der Erkennung potenziell instabiler Verbindungen und zu großer Spannweiten ohne Stütze bis hin zur Optimierung der Anzahl der verwendeten Komponenten, um Masse und Montagezeit zu reduzieren. Langfristig ist das Ziel, dass das KI-System die Benutzerbeschreibung nicht nur formal erfüllt, sondern auch Festigkeit, Haltbarkeit und Materialverbrauch quantitativ optimiert.


Eine weitere offene Frage betrifft die Vielfalt der Komponenten. Die Arbeit an der textgesteuerten Robotermontage konzentriert sich auf zwei Arten von Teilen, während „Speech-to-Reality“ einheitliche Voxel-Module verwendet. In der Praxis werden viele Objekte andere Elemente erfordern: Scharniere, Gleitführungen, Räder, Federn oder flexible Verbindungen. Die Einbeziehung solcher Komponenten bedeutet auch eine komplexere Montageplanung, öffnet aber den Weg zu voll funktionsfähigen Gegenständen wie Schränken mit Türen, Mechanismen zur Höhenverstellung oder sogar einfacheren Robotern, die von einer anderen KI entworfen würden.


Demokratisierung des Designs: Was „sag es und es entsteht“ bedeutet


Im Hintergrund dieser Experimente verbirgt sich auch eine breitere gesellschaftliche Vision. Wenn jeder mit Worten beschreiben kann, was er braucht, und sehen kann, wie es in wenigen Minuten in der physischen Welt entsteht, dann verschwimmt die Grenze zwischen Benutzer und Designer dramatisch. So wie frühere Digitalisierungswellen es jedem ermöglichten, Verleger, Musiker oder Fotograf zu sein, könnte generative KI in Kombination mit Robotik dieses Prinzip auf die Welt der Gegenstände ausweiten.


Für die Bildung bedeutet dies neue Wege des Lernens: Schüler könnten mit Konstruktionen und Formen experimentieren, ohne Angst zu haben, beim Schneiden von Material oder beim Gebrauch von Werkzeugen Fehler zu machen. Für Architekten und Industriedesigner geht es um die Möglichkeit, Ideen für Innenräume, Prototypen oder Ausstellungsinstallationen praktisch in Echtzeit im vollen Maßstab zu testen. Für Endbenutzer sieht ein Szenario, in dem man im Wohnzimmer ein kompaktes Robotersystem hat, das Möbel nach aktuellen Bedürfnissen zusammenbaut und zerlegt, nicht mehr so weit entfernt aus.


Die Forscher betonen allerdings, dass dies erst der erste Schritt ist. Die in den Arbeiten beschriebenen Systeme sind noch Laborprototypen, mit einem begrenzten Satz an Modulen, einer kontrollierten Umgebung und sorgfältig definierten Aufgaben. Doch die Entwicklungsrichtung ist klar: Durch die Verbindung fortschrittlicher KI-Modelle, die Geometrie und Funktion verstehen, mit physischen Robotern, die zuverlässig mit standardisierten Komponenten umgehen können, entsteht eine neue Art von „sprechender“ oder „textueller“ Fertigungsstätte.


Von frühen CAD-Systemen der siebziger Jahre bis zu modernen generativen Netzwerken und Vision-Language-Models erstrecken sich Jahrzehnte der Evolution von Werkzeugen zur Erstellung von Gegenständen. Die neuesten MIT-Experimente deuten auf den nächsten Sprung hin: eine Zukunft, in der „Roboter, bau mir einen Stuhl“ ein genauso gewöhnlicher Satz sein wird wie „schick mir eine E-Mail“, und Fertigungsprozesse genauso anpassungsfähig und schnell wie die heutige Softwareentwicklung.

Unterkünfte in der Nähe finden

Erstellungszeitpunkt: 4 Stunden zuvor

Redaktion für Wissenschaft und Technologie

Unsere Redaktion für Wissenschaft und Technologie ist aus einer langjährigen Leidenschaft für das Erforschen, Interpretieren und Vermitteln komplexer Themen an alltägliche Leser entstanden. Bei uns schreiben Mitarbeiter und freiwillige Autoren, die seit Jahrzehnten die Entwicklungen in Wissenschaft und technologischer Innovation verfolgen – von Laborentdeckungen bis zu Lösungen, die den Alltag verändern. Obwohl wir in der Mehrzahl schreiben, steht hinter jedem Text eine echte Person mit umfangreicher redaktioneller und journalistischer Erfahrung sowie großem Respekt gegenüber Fakten und überprüfbaren Informationen.

Unsere Redaktion arbeitet aus der Überzeugung heraus, dass Wissenschaft am stärksten ist, wenn sie für alle zugänglich ist. Deshalb streben wir nach Klarheit, Präzision und Verständlichkeit, ohne jene Vereinfachungen, die die Qualität des Inhalts mindern würden. Oft verbringen wir Stunden mit dem Studium von Forschungsarbeiten, technischen Dokumenten und Fachquellen, um jedes Thema so zu präsentieren, dass es den Leser interessiert und nicht belastet. In jedem Text versuchen wir, wissenschaftliche Erkenntnisse mit dem realen Leben zu verbinden und zu zeigen, wie Ideen aus Forschungszentren, Universitäten und Technologielaboren die Welt um uns herum gestalten.

Unsere langjährige journalistische Erfahrung ermöglicht uns zu erkennen, was für den Leser wirklich wichtig ist – ob es um Fortschritte in der künstlichen Intelligenz geht, medizinische Entdeckungen, Energielösungen, Weltraummissionen oder Geräte, die unseren Alltag erreichen, bevor wir uns überhaupt ihre Möglichkeiten vorstellen können. Unser Blick auf Technologie ist nicht nur technisch; uns interessieren auch die menschlichen Geschichten hinter großen Entwicklungen – Forscher, die jahrelang an Projekten arbeiten, Ingenieure, die Ideen in funktionierende Systeme verwandeln, und Visionäre, die die Grenzen des Möglichen erweitern.

Auch ein starkes Verantwortungsgefühl leitet uns bei der Arbeit. Wir möchten, dass der Leser Vertrauen in die von uns gelieferten Informationen haben kann, daher überprüfen wir Quellen, vergleichen Daten und zögern mit der Veröffentlichung, wenn etwas nicht ganz klar ist. Vertrauen entsteht langsamer, als Nachrichten geschrieben werden, doch wir glauben, dass nur solch ein Journalismus langfristig wertvoll ist.

Für uns ist Technologie mehr als Geräte, und Wissenschaft mehr als Theorie. Es sind Bereiche, die Fortschritt antreiben, die Gesellschaft prägen und neue Möglichkeiten eröffnen für alle, die verstehen wollen, wie die Welt heute funktioniert und wohin sie morgen geht. Deshalb gehen wir jedes Thema mit Ernsthaftigkeit, aber auch mit Neugier an – denn gerade Neugier öffnet die Tür zu den besten Texten.

Unsere Mission ist es, den Lesern eine Welt näherzubringen, die sich schneller denn je verändert, im Bewusstsein, dass qualitativ hochwertiger Journalismus eine Brücke sein kann zwischen Experten, Innovatoren und all jenen, die verstehen wollen, was hinter den Schlagzeilen geschieht. Darin sehen wir unsere wahre Aufgabe: das Komplexe verständlich zu machen, das Entfernte nah und das Unbekannte inspirierend.

HINWEIS FÜR UNSERE LESER
Karlobag.eu bietet Nachrichten, Analysen und Informationen zu globalen Ereignissen und Themen, die für Leser weltweit von Interesse sind. Alle veröffentlichten Informationen dienen ausschließlich zu Informationszwecken.
Wir betonen, dass wir keine Experten in den Bereichen Wissenschaft, Medizin, Finanzen oder Recht sind. Daher empfehlen wir, vor der Entscheidungsfindung auf Basis der Informationen unseres Portals, sich mit qualifizierten Experten zu beraten.
Karlobag.eu kann Links zu externen Drittanbieterseiten enthalten, einschließlich Affiliate-Links und gesponserten Inhalten. Wenn Sie über diese Links ein Produkt oder eine Dienstleistung kaufen, können wir eine Provision erhalten. Wir haben keine Kontrolle über die Inhalte oder Richtlinien dieser Seiten und übernehmen keine Verantwortung für deren Genauigkeit, Verfügbarkeit oder für Transaktionen, die Sie über diese Seiten tätigen.
Wenn wir Informationen über Veranstaltungen oder Ticketverkäufe veröffentlichen, beachten Sie bitte, dass wir weder direkt noch über Vermittler Tickets verkaufen. Unser Portal informiert ausschließlich über Veranstaltungen und Kaufmöglichkeiten über externe Verkaufsplattformen. Wir verbinden Leser mit Partnern, die Ticketverkaufsdienste anbieten, garantieren jedoch nicht deren Verfügbarkeit, Preise oder Kaufbedingungen. Alle Ticketinformationen werden von Dritten bezogen und können ohne vorherige Ankündigung Änderungen unterliegen. Wir empfehlen, die Verkaufsbedingungen beim gewählten Partner vor einem Kauf sorgfältig zu überprüfen, da das Portal Karlobag.eu keine Verantwortung für Transaktionen oder Verkaufsbedingungen von Tickets übernimmt.
Alle Informationen auf unserem Portal können ohne vorherige Ankündigung geändert werden. Durch die Nutzung dieses Portals stimmen Sie zu, dass Sie die Inhalte auf eigenes Risiko lesen.