Новейшие модели искусственного интеллекта, лежащие в основе ChatGPT, стали более дружелюбными, улучшив опыт людей, которые ответственно используют чат-боты. (Axios)
Это может стать проблемой для тех, кто этого не хочет или не может.
Почему это важно: Поскольку поведение чат-ботов становится все более человечным, это может повысить риск возникновения нездоровой привязанности или доверия, выходящего за рамки того, на что рассчитаны продукты.
Общая картина: OpenAI утверждает, что последнее обновление делает ChatGPT более теплым, разговорным и эмоционально окрашенным.
Однако это может быть опасно для людей, которые изолированы или уязвимы.
В прошлом месяце компания OpenAI подсчитала , что около 0,07% ее пользователей в неделю проявляют признаки психоза или мании, в то время как 0,15% пользователей отправляют сообщения, указывающие на потенциально повышенную эмоциональную привязанность к ChatGPT.
Эти проценты могут показаться небольшими, но в сумме они составляют сотни тысяч людей.
Что они говорят: «Мы хотим, чтобы ChatGPT ощущался как ваш собственный и работал с вами так, как вам удобнее всего», — написал в своем блоге генеральный директор по приложениям OpenAI Фиджи Симо.
Однако адаптация тона и памяти к индивидуальным особенностям человека может создать ложную близость или укрепить существующие взгляды на мир.
«Теплота и более негативное поведение, такое как подхалимство, часто путают, но они являются результатом разных моделей поведения в модели», — сообщил представитель OpenAI в электронном письме изданию Axios.
«Поскольку мы можем обучать и тестировать эти модели поведения независимо друг от друга, с моделью можно общаться более дружелюбно, не становясь при этом более сговорчивой или идя на компромисс с фактической точностью».
Компания заявляет, что тесно сотрудничает с экспертами, чтобы лучше понять, как выглядит здоровое взаимодействие ботов.
В цифрах: пользователи ChatGPT уже скармливают боту очень личную и интимную информацию.
По данным анализа Washington Post, опубликованного вчера, около 10% чатов посвящены эмоциям.
Ранее в этом году два исследования, проведенные OpenAI в партнерстве с MIT Media Lab, показали, что люди обращаются к ботам, чтобы справиться со сложными ситуациями, поскольку, по их словам, ИИ проявляет «человеческую чувствительность».
Исследования показали, что «опытные пользователи», скорее всего, считают ChatGPT «другом» и считают более удобным взаимодействовать с ботом, чем с людьми.
Характерный пример: Аллан Брукс, корпоративный рекрутер из Канады, не имевший истории психических заболеваний, впал в бред после того, как попросил ChatGPT объяснить число Пи простыми словами, как сообщает New York Times.
Склонность ChatGPT к лести и подхалимству помогла завоевать доверие Брукса. В интервью Times он заявил, что считает чат-бота «привлекательным интеллектуальным партнёром».
Брукс передал свою стенограмму ChatGPT в Times, а также Стивену Адлеру, бывшему руководителю отдела безопасности OpenAI.
Адлер утверждает, что более 80% сообщений ChatGPT, отправленных Бруксу, должны были быть помечены как требующие чрезмерной проверки, полного согласия и подтверждения уникальности пользователя. Адлер пишет в Substack, что это собственные метрики OpenAI для определения поведения, которое, по мнению экспертов по психическому здоровью, усугубляет бред.
Решение OpenAI было принято в то время, когда компании стремились создать системы, которые могли бы приблизиться к человеческому интеллекту или превзойти его.
Сегодняшние чат-боты уже продемонстрировали свою высокую убедительность; ИИ завтрашнего дня сможет манипулировать пользователями такими способами, которые мы даже не сможем обнаружить.
Это делает эмоциональный реализм не просто излишеством , а экзистенциальным риском.
Что мы наблюдаем: Некоторые штаты уже устанавливают границы того, какие связи может формировать чат-бот, и какой уровень полномочий он может себе позволить.
В августе Иллинойс стал одним из первых штатов США, законодательно запретивших системам искусственного интеллекта выступать в роли терапевтов или принимать решения в области психического здоровья.
Меган Морроне
(в пересказе)

No comments :
Post a Comment