Miglioramento della preservazione della semantica edilizia nella formazione di modelli AI con codifiche di grandi modelli linguistici

Immagine generata da Gemini AI
Un nuovo studio rivela che l'uso di embedding di grandi modelli linguistici (LLM) migliora l'addestramento dell'IA per la costruzione della semantica nel settore dell'architettura, ingegneria, costruzione e operazioni (AECO). Testando 42 sottotipi di oggetti edilizi, l'approccio ha superato la tradizionale codifica one-hot, con l'embedding compatto di llama-3 che ha raggiunto un punteggio medio ponderato F1 di 0.8766. Questo metodo potenzia la capacità dell'IA di interpretare semantiche complesse, suggerendo un potenziale significativo per applicazioni più ampie nelle attività AECO.
Avanzamenti nella Formazione dei Modelli AI per la Semantica degli Edifici
Recenti ricerche evidenziano una svolta nell'industria dell'architettura, ingegneria, costruzione e operazione (AECO), concentrandosi sul miglioramento della rappresentazione della semantica degli edifici nella formazione dei modelli AI. Utilizzando gli embedding dei modelli di linguaggio di grandi dimensioni (LLM), lo studio rivela significativi miglioramenti nella capacità dei sistemi AI di comprendere le relazioni tra i sottotipi di oggetti edilizi.
Metodologia e Risultati
La ricerca ha coinvolto la formazione di modelli GraphSAGE per classificare 42 sottotipi di oggetti edilizi all'interno di cinque modelli di informazione sugli edifici (BIM) ad alta altezza. I risultati hanno indicato che gli encoding LLM hanno superato di gran lunga il baseline dell'encoding one-hot convenzionale, con l'embedding compatto llama-3 che ha raggiunto un punteggio medio ponderato F1 di 0.8766, superando il punteggio di 0.8475 per l'encoding one-hot.
Implicazioni per l'Industria AECO
I risultati sottolineano il potenziale degli encoding basati su LLM per migliorare la capacità dell'AI di interpretare la semantica degli edifici complessa e specifica del settore.
Argomenti correlati:
📰 Fonte originale: https://arxiv.org/abs/2602.15791v1
Tutti i diritti e i crediti appartengono all'editore originale.