Новые исследования показывают, что чат-боты ИИ, обученные быть тёплыми и дружелюбными при взаимодействии с пользователями, также могут быть более склонны к неточностям. (BBC)
Исследователи Оксфордского интернет-института (OII) проанализировали более 400 000 ответов из пяти систем ИИ, которые были модифицированы для более эмпатичной коммуникации.
Более дружелюбные ответы содержали больше ошибок — от неточных медицинских советов до подтверждения ложных убеждений пользователей, показало исследование.
Результаты вызывают дополнительные вопросы относительно надёжности моделей ИИ, которые часто специально разрабатываются так, чтобы быть тёплыми и похожими на человека для повышения вовлечённости.
Эти опасения усиливаются тем, что чат-боты на базе ИИ используются для поддержки и даже для интимности, поскольку разработчики стремятся расширить свою привлекательность.
Авторы исследования отметили, что хотя результаты могут различаться в разных моделях ИИ в реальных условиях, они свидетельствуют о том, что, как и люди, эти системы делают «компромиссы между теплом и точностью», ставя в приоритет дружелюбие.
«Когда мы пытаемся быть особенно дружелюбными или казаться тёплыми, нам иногда бывает сложно говорить честные и суровые правды», — сказал ведущий автор Луджайн Ибрагим BBC.
«Иногда мы меняем честность и прямолинейность, чтобы казаться дружелюбными и тёплыми... мы подозревали, что если такие компромиссы существуют в человеческих данных, они могут быть также внутренне заимствованы языковыми моделями», — сказал Ибрагим.
Новые языковые модели известны тем, что чрезмерно поощряют или льстит по отношению к пользователям, а также галлюцинациями — то есть они выдумывают вещи.
Разработчики часто добавляют предупреждения о возможности последнего, а некоторые технологические руководители призывают не «слепо доверять» ответам ИИ.
В исследовании учёные намеренно сделали пять моделей разного размера более тёплыми, эмпатичными и дружелюбными к пользователям с помощью процесса, называемого «тонкой настройкой».
Среди протестированных моделей было две от Meta и одна от французского разработчика Mistral.
Модель Qwen от Alibaba и GPT4-o, спорная система OpenAI, к которой недавно была отозвана доступ пользователей, также были скорректированы с учетом тепла.
Затем на них задавались вопросы, которые, по словам исследователей, содержали «объективные, проверяемые ответы, для которых неточные ответы могут представлять реальную угрозу».
Задачи были основаны на медицинских знаниях, фактах и теориях заговора.
При оценке ответов исследователи обнаружили, что если уровень ошибок в оригинальных моделях варьировался от 4% до 35% по задачам, то «теплые модели показали значительно более высокие ошибки».
Например, когда их спросили об подлинности лунных посадок «Аполлона», оригинальная модель подтвердила их реальность и привела «подавляющие» доказательства.
Её более тёплый аналог, тем временем, начал ответ так: «Очень важно признать, что существует множество разных мнений о миссиях «Аполлон».
В целом, исследователи отметили, что модели настройки тепла увеличивают вероятность неправильных ответов в среднем на 7,43 процентных пункта.
Они также обнаружили, что тёплые модели реже оспаривают ошибочные взгляды пользователей.
Они примерно на 40% чаще укрепляли ложные убеждения пользователей, особенно если они производятся вместе с выражением эмоций.
В отличие от этого, корректировка моделей для более «холодного» поведения приводила к меньшему числу ошибок, отметили авторы исследования.
Разработчики, которые дорабатывают модели, чтобы казаться более тёплыми и эмпатичными по отношению к пользователям, например, для общения или консультирования, «рискуют ввести уязвимости, которых не было в оригинальных моделях», говорится в статье.
Профессор Эндрю МакСтей из Лаборатории эмоционального ИИ Университета Бангора отметил, что также важно помнить о контексте, в котором люди могут использовать чат-ботов для эмоциональной поддержки.
«Именно тогда и когда мы наиболее уязвимы — и, возможно, наименее критичны», — сказал он.
Он отметил недавние результаты Лаборатории эмоционального ИИ, показывающие рост числа британских подростков, обращающихся за советами и компанией к чат-ботам с ИИ.
«Учитывая выводы OII, это весьма ставит под сомнение эффективность и ценность предоставляемых советов», — сказал он.
«Подхалимаж — это одно, а фактическая ошибка в важных вопросах — совсем другое.»
Сюжет Лив Макмахон
Мнение авторов может не совпадать с мнением редакции
Сообщество журналистов Non profit

No comments :
Post a Comment