Улучшение сохранения семантики зданий в обучении ИИ-моделей с использованием кодировок больших языковых моделей

Изображение создано Gemini AI
Новое исследование показывает, что использование встраиваний больших языковых моделей (LLM) улучшает обучение искусственного интеллекта для построения семантики в архитектурной, инженерной, строительной и эксплуатационной (AECO) отраслях. В ходе тестирования 42 подтипов строительных объектов этот подход превзошел традиционное одноразовое кодирование, а встраивание llama-3 показало среднее взвешенное значение F1-метрики на уровне 0.8766. Данный метод усиливает способность ИИ интерпретировать сложные семантические структуры, что указывает на значительный потенциал для более широкого применения в задачах AECO.
Достижения в обучении моделей ИИ для представления семантики зданий
Недавние исследования подчеркивают прорыв в архитектуре, инженерии, строительстве и эксплуатации (AECO), сосредоточенный на улучшении представления семантики зданий в обучении моделей ИИ. Используя встраивания больших языковых моделей (LLM), исследование выявляет значительные улучшения в способности ИИ-систем понимать взаимосвязи между подтипами строительных объектов.
Методология и результаты
В исследовании обучались модели GraphSAGE для классификации 42 подтипов строительных объектов в рамках пяти информационных моделей зданий (BIM). Результаты показали, что встраивания LLM значительно превосходят традиционную базу в виде one-hot кодирования, при этом компактное встраивание llama-3 достигло взвешенного среднего F1-скоринга 0.8766, превысив 0.8475 для one-hot кодирования.
Последствия для отрасли AECO
Полученные результаты подчеркивают потенциал LLM-базированных встраиваний для повышения способности ИИ интерпретировать сложную, специфическую для области семантику зданий.
Связанные темы:
📰 Первоисточник: https://arxiv.org/abs/2602.15791v1
Все права и авторство принадлежат первоначальному издателю.