Новое исследование Университета Бат и Технического университета Дармштадта показало, что большие языковые модели, такие как ChatGPT, не могут обучаться самостоятельно и приобретать новые навыки без чётких указаний, сообщает ИА «БСТ» со ссылкой на ferra.ru.
Результаты, представленные на 62-й ежегодной конференции Ассоциации вычислительной лингвистики (ACL 2024), подтверждают, что, несмотря на способность выполнять задачи по примерам, модели не могут развивать сложные навыки без дополнительного обучения. Это делает их безопасными и предсказуемыми, опровергая опасения относительно их умения к сложному рассуждению и планированию.
Большие модели могут решать сложные языковые задачи и следовать детальным инструкциям, однако не обладают способностью к самостоятельному приобретению знаний.