ИИ: «Нет ничего опаснее человеческой глупости»


Барби-бум, начавшийся после премьеры одноименного фильма, не только добавил в будни розового цвета, но и открыл новые возможности искусственного интеллекта. Пользователи завалили соцсети фотографиями в образах Барби и Кена, сгенерированных ИИ, — море восторженных отзывов. Но еще совсем недавно, а именно после появления ChatGPT, новые возможности ИИ вызвали шквал негатива и опасений, вплоть до риторики о приостановке разработок в этом направлении. Насколько такие опасения обоснованны? Может ли в принципе искусственный интеллект навредить людям? Ответы на эти вопросы — в экспресс-опросе от «Коммерсанта UK». 

Роман Копосов, руководитель направления «Стратегическое планирование», заместитель директора ГК «Институт Тренинга — АРБ Про»: 

— Первая потенциальная угроза — это применение ИИ в военных целях. Те же дроны, где используется система машинного зрения для распознавания препятствий и идентификации объектов, которые изначально программируются на атаку боевой силы противника. По сути, беспилотник превращается в камикадзе, нацеленного на уничтожение врага. Здесь нельзя исключать возможности, что алгоритм может распознать что-то не так, к примеру как боевую технику идентифицировать небоевую единицу. Кроме того, в фарминдустрии достаточно давно используют ИИ, потому что с его возможностями по работе с большими данными и алгоритмами для их анализа, в том числе с участием нейросети, проводить эксперименты гораздо дешевле, быстрее и эффективнее. А на месте фармлабораторий может быть все что угодно, вплоть до производства нового химического или бактериологического оружия. 

Вторая опасность — это манипуляция общественным сознанием при помощи фейковых видео. Сейчас много случаев, когда создают дипфейки, копии известных личностей, от селебрити и политиков до ученых и бизнесменов, чтобы либо сделать хайп вокруг знаменитости, либо вовлечь людей в какую-то финансовую аферу. К примеру, мошенники сделали два видео с цифровой копией сооснователя одной из маркетинговых платформ, где он продвигает систему заработка на основе ИИ. К сожалению, такие случаи есть и будут, но давайте будем честными: как и в первом (использование ИИ в военных целях), так и во втором примере ИИ просто инструмент, потому что именно люди намеренно наделили его такими задачами. 

Третий вариант связан с компьютерным взломом аккаунтов, почтовых сервисов, криптокошельков и т. д. Истории могут быть разные, от слива личной переписки звезд и хищения средств со счетов до взлома систем управления крупного промышленного предприятия или атомной электростанции с целью вывести их из строя.

Четвертое — это вопрос выбора. Например, если машина, за рулем которой был автопилот, сбивает человека, то здесь вопрос исключительно в том, кто дал право машине выбирать и, соответственно, заложил алгоритмы, когда машина своим манипулятивным воздействием может причинить вред человеку. То есть она изначально была запрограммирована на определенную модель поведения: либо оставляет жизнь водителю, либо делает свой выбор, анализируя, кто перед ней находится, например мама с ребенком. 

Пятый пункт — это исчезновение некоторых профессий как в краткосрочной, так и в долгосрочной перспективе. Например, основную часть работы нутрициологов уже выполняет ИИ (изучает результаты анализов, проводит опрос пациентов и интерпретирует эти данные), причем, в отличие от врача, который может не располагать достаточно большим объемом данных, нейросетка видит их огромное количество. На основании этих данных ИИ может делать определенные выводы: скорректировать человеку питание, сон, образ жизни, назначить курсы приема БАДов, витаминов. И сочетание специалиста и нейросети — это мощный тандем, но я боюсь, что врач в этом случае может стать лишним звеном, потому что нейросетка будет работать лучше. Подобные трансформации будут происходить и с другими профессиями.

Это, пожалуй, варианты, которые могут людям навредить, но обратите внимание, что в каждом из них в основе программирования был человек. Поэтому, на мой взгляд, обеспокоенность тем, что ИИ в виде попсового варианта (ChatGPT, Midjourney либо любых других нейросетей, которые появились за последние полгода), реально помогающего людям решать простые бытовые задачи, может им навредить, необоснованна. И их развитие не нужно стараться приостановить — наоборот, нужно разобраться в полезном эффекте и выявить группы людей, намеренно злоупотребляющих ИИ. 

Владимир Клюев, генеральный директор студии веб-разработок ArticMedia:

— Пока можно говорить о вреде ИИ для людей в разрезе его использования для обучения молодого поколения. Когда ИИ используют в качестве замены самостоятельного поиска решений или материалов на этапе обучения новым знаниям, это приводит к их обесцениванию. Потому что если у человека не будет опыта самостоятельного поиска решений, то у него возникнут сложности в анализе, формировании выводов, быстром принятии важных решений и т..

Алексей Крол, писатель:

— Пока история человечества показывает, что главная опасность, которая угрожает человечеству,— это жадность, конфликтность, деструктивное поведение его представителей. Соответственно, предполагать, что на каком-то этапе ИИ будет самостоятельно обеспечивать какие-то типы ответственности, не советуясь с людьми, смешно. Потому что де-факто 99% различных процессов (производственных, технологических, коммуникационных) давно автоматически, без участия человека, управляются алгоритмами, а люди подключаются только при возникновении нештатных ситуаций. То есть это уже свершившийся факт. Более того, в алгоритмах всегда существуют ошибки плюс действуют разные хакеры — эта реальность уже настала. А ИИ — это просто еще один алгоритм. К примеру, каждый человек, работающий в корпорации, действует по алгоритму (в виде должностных инструкций, внутренней политики компании и т..), и проблемы возникают тогда, когда либо сам человек совершает ошибки, либо инструкция написана некорректно (тоже бывает часто). Поэтому я пока никаких существенных изменений не вижу.

На мой взгляд, в основе страхов лежит боязнь того, что ИИ каким-то образом полностью перехватит управление (которое мы ему сначала сами и поручим), решит, что человечество — это зло (как в фильмах «Матрица», «Терминатор»), и начнет его сознательно уничтожать. Конечно, теоретически такая вероятность существует, потому что, как сказал Альберт Эйнштейн, «в мире две вещи бесконечны — Вселенная и человеческая глупость». Однако подобные проблемы всегда купируются: разрабатывается несколько внешних сценариев, хеджируются риски. Коротко говоря, я не считаю, что привнесение ИИ в процессы управления (что неизбежно произойдет) существенно увеличит риски, которые сейчас уже имеются. Потому что основной источник рисков для человечества не ИИ, природа или метеориты (все эти катастрофы давно проанализированы), а в принципе человеческая глупость — нежелание находить компромиссы и неспособность разрешать конфликты мирным путем и т. д. Я думаю, что по мере развития ИИ, увеличения его доли в управлении операционными процессами и развитии на планете в целом это будет приводить к благу. Будут ли какие-то проблемы? Они будут всегда: жизнь — это проблема, и это нормально, потому что если мы хотим построить жизнь без проблем, то это в принципе возможно только на кладбище. Поэтому я думаю, что, во-первых, разговоры об опасностях, которые якобы несет ИИ, вызваны страхами, а во-вторых, по крайней мере для так называемого ученого сообщества, раздувание человеческих тревог — это такое последнее прибежище негодяя, когда легче привлекать к себе внимание, формулируя какие-то угрозы. В принципе, если вы хотите получить деньги от налогоплательщиков и идиотов, то их нужно напугать — метеоритной угрозой, злым ИИ-роботом (отберет у всех рабочие места), климатическими изменениями (носят антропогенный характер, хотя это тоже дискуссионный вопрос), пандемией, неважно чем. Потому что любая угроза, о которой вы говорите, требует действий, что в переводе на русский означает «требует денег». Соответственно, так это и работает, и я здесь никакого принципиального отличия не вижу.

Роман Корес, IT-разработчик, сооснователь IT-компании Horum: 

— Сейчас можно рассуждать о возможностях ИИ, опираясь только на сервисы и модели, которые есть в открытом доступе. Они уже оснащены интеллектом, могут решать множество задач, от генерации голоса, текста, фото- и видеоконтента до анализа и реализации действий, таких как написание и выполнение кода, генерация поисковых запросов в интернете (сайты, соцсети). Но у всех публичных моделей отсутствует ключевой фактор — мотивация, которая закладывается непосредственно пользователями (например, промпты — prompts), самостоятельно машина себе заданий не придумывает. Поэтому если говорить о каком-то пагубном влиянии данных технологий, то напрямую это сводится к человеческому фактору, и ситуация здесь не радужная: достаточно людей с недобрыми намерениями. Уже есть много кейсов, когда возможности ИИ используются во вред — фишинг, интернет-мошенничество, фейки. Причем фейки выглядят очень реалистично (ИИ обладает огромной базой данных, загруженной в интернет за последние тридцать лет), что вносит хаос в общество и в следующие модели, которые могут брать в свою логику и архитектуру в том числе и недостоверные данные. 

Если говорить о моделях, которые тестируют правительства, министерства обороны разных стран, то, зная, какие возможности есть у открытых систем, несложно предположить, что там есть алгоритмы как минимум на уровень выше, и остается только догадываться, что они умеют и как потенциально могут навредить человечеству. В будущем ИИ может быть ключом к созданию новых децентрализованных экономических моделей, которые будут работать в Web3 с криптовалютой и смарт-контрактами. Из этого вытекает новый глобальный вопрос: будут ли готовы государства и крупный бизнес к изменениям в глобальной экономике и какие ограничения они придумают для того, чтобы этого не допустить?
Автор Алена Иванова
Мнение авторов может не совпадать с мнением редакции 
Некоммерческое сообщество журналистов

Комментариев нет :