Научные сотрудники Батского университета и Дармштадтского технического университета сконцентрировали свои усилия на изучении крупномасштабных языковых моделей (LLM), считающихся одним из ключевых векторов развития ИИ. Их изыскания показали, что эти системы демонстрируют впечатляющую способность к автономному обучению и приобретению новых компетенций. Тем не менее, вразрез с распространенными опасениями, поведенческие паттерны LLM сохраняют предсказуемость и остаются под контролем человека.
Под эгидой профессора Ирины Гуревич исследовательская группа реализовала ряд экспериментальных сессий, в рамках которых LLM были поставлены перед вызовом решения нестандартных задач. Полученные результаты свидетельствуют о том, что ИИ наиболее результативен при работе с задачами, опирающимися на предоставленные примеры. Этот факт указывает на отсутствие у ИИ склонности к спонтанному творчеству или непрогнозируемым действиям.
Профессор Гуревич акцентировала внимание на существенном наблюдении: модели неукоснительно придерживаются заданных инструкций и выполняют директивы без отступлений от намеченного курса. Данный феномен подтверждает высокую степень контролируемости ИИ и минимизирует вероятность реализации сценариев, в которых искусственный интеллект мог бы выйти за рамки человеческого управления.
Базируясь на собранных эмпирических данных, эксперты сформулировали заключение о крайне низкой вероятности трансформации ИИ в неуправляемую угрозу для человечества. Это исследование вносит существенный вклад в ongoing дискуссию о перспективах развития искусственного интеллекта и способствует деконструкции ряда мифов и фобий, связанных с его эволюцией.