Verbesserung der Erhaltung von Gebäudesemantik in der KI-Modelltraining durch Encodierungen großer Sprachmodelle

Von Gemini AI generiertes Bild
Eine neue Studie zeigt, dass die Verwendung von Embeddings großer Sprachmodelle (LLM) das KI-Training zur Entwicklung von Semantik in der Architektur-, Ingenieur-, Bau- und Betriebsbranche (AECO) verbessert. Bei Tests an 42 Untertypen von Bauobjekten übertraf dieser Ansatz die herkömmliche One-Hot-Codierung. Das komprimierte Embedding von Llama-3 erzielte einen gewichteten durchschnittlichen F1-Score von 0,8766. Diese Methode verbessert die Fähigkeit der KI, komplexe Semantiken zu interpretieren, was auf ein erhebliches Potenzial für eine breitere Anwendung in AECO-Aufgaben hinweist.
Fortschritte im Training von KI-Modellen zur Darstellung von Gebäude-Semantiken
Aktuelle Forschungen heben einen Durchbruch in der Architektur-, Ingenieur-, Bau- und Betriebsbranche (AECO) hervor, der sich auf die Verbesserung der Darstellung von Gebäude-Semantiken im Training von KI-Modellen konzentriert. Durch die Nutzung von Einbettungen großer Sprachmodelle (LLM) zeigt die Studie erhebliche Verbesserungen in der Fähigkeit von KI-Systemen, Beziehungen zwischen Untertypen von Gebäudeobjekten zu verstehen.
Methodik und Ergebnisse
Die Forschung umfasste das Training von GraphSAGE-Modellen zur Klassifizierung von 42 Untertypen von Gebäudeobjekten innerhalb von fünf Hochhaus-BIMs (Building Information Models). Die Ergebnisse zeigten, dass LLM-Codierungen die konventionelle One-Hot-Codierung erheblich übertrafen, wobei die komprimierte Einbettung von llama-3 einen gewichteten durchschnittlichen F1-Score von 0.8766 erreichte, der den Score von 0.8475 für die One-Hot-Codierung übertraf.
Implikationen für die AECO-Branche
Die Ergebnisse verdeutlichen das Potenzial von LLM-basierten Codierungen, die Fähigkeit von KI zu verbessern, komplexe, domänenspezifische Gebäude-Semantiken zu interpretieren.
Verwandte Themen:
📰 Originalquelle: https://arxiv.org/abs/2602.15791v1
Alle Rechte und Urheberrechte liegen beim ursprünglichen Herausgeber.