Клоны искусственного интеллекта, созданные на основе пользовательских данных, представляют собой сверхъестественные риски

07.07.2023

Представьте себе, если хотите, цифрового двойника. Клон, который выглядит, говорит и ведет себя точно так же, как вы, созданный из глубин искусственного интеллекта, отражающий все ваши манеры с жуткой точностью. Как бы волнующе это ни звучало, как бы вы к этому отнеслись?

Наше исследование, проведенное в Университете Британской Колумбии, привлекает внимание именно к этому вопросу. Благодаря достижениям в области технологий глубокого обучения, таких как интерактивные приложения deepfake, преобразование голоса и виртуальные актеры, стало возможным в цифровом виде воспроизвести внешность и поведение человека.

Это зеркальное отражение человека, созданное искусственным интеллектом, называется «клоном искусственного интеллекта». Наше исследование погружает в мутные воды того, что эти клоны искусственного интеллекта могут означать для нашего самовосприятия, взаимоотношений и общества. В нашей статье, опубликованной в рамках Proceedings of the ACM по взаимодействию человека и компьютера, мы определили три типа рисков, связанных с копиями искусственного интеллекта: двойникофобия, фрагментация идентичности и живые воспоминания.
Клонирующий искусственный интеллект

Мы определили клоны искусственного интеллекта как цифровые репрезентации индивидов, предназначенные для отражения некоторых или нескольких аспектов реального «исходного индивида».

В отличие от вымышленных персонажей в цифровой среде, эти клоны искусственного интеллекта основаны на существующих людях, потенциально имитируя их визуальное сходство, манеры разговора или поведенческие модели. Глубина репликации может сильно варьироваться — от воспроизведения определенных отличительных особенностей до создания почти идеального цифрового двойника.

Клоны искусственного интеллекта также являются интерактивными технологиями, предназначенными для интерпретации входных данных пользователя и окружающей среды, проведения внутренней обработки и получения ощутимых выходных данных. И что особенно важно, это технологии, основанные на искусственном интеллекте и основанные на персональных данных.

По мере того как объем персональных данных, которые мы генерируем, продолжает расти, растет и точность этих клонов искусственного интеллекта в воспроизведении нашего поведения.
Страхи, фрагменты и ложные воспоминания

Мы представили 20 участникам восемь спекулятивных сценариев с участием клонов искусственного интеллекта. Участники были разными по возрасту и происхождению и размышляли о своих эмоциях и потенциальном влиянии на их самовосприятие и взаимоотношения.

Во-первых, мы обнаружили, что доппельгангерофобия — это страх не только перед самим клоном искусственного интеллекта, но и перед его потенциальным неправильным использованием. Участники были обеспокоены тем, что их цифровые аналоги могут использовать их личность и вытеснить ее.

Во-вторых, существовала угроза фрагментации идентичности. Создание копий угрожает уникальной индивидуальности клонируемого человека, нарушая его целостное самовосприятие. Другими словами, люди беспокоятся о том, что они могут частично утратить свою уникальность и индивидуальность в процессе тиражирования.

Наконец, участники выразили обеспокоенность по поводу того, что мы назвали «живыми воспоминаниями». Это связано с опасностью, возникающей, когда человек взаимодействует с клоном кого-то, с кем у него уже есть отношения. Участники беспокоились, что это может привести к искажению личности или что у них разовьется чрезмерная привязанность к клону, что изменит динамику межличностных отношений.
Сохранение общечеловеческих ценностей

Очевидно, что разработка и внедрение клонов искусственного интеллекта имеет глубокие последствия. Наше исследование не только вносит ценный вклад в критический диалог об этичном ИИ, но и предлагает новую структуру для проектирования клонов ИИ, в которой приоритет отдается идентичности и аутентичности.

Ответственность за ответственное освоение этой неизведанной территории лежит на всех заинтересованных сторонах — включая дизайнеров, девелоперов, политиков и конечных пользователей. Это предполагает добросовестное рассмотрение стратегий модерации и истечения срока действия пользовательских данных, чтобы предотвратить неправильное использование и чрезмерную зависимость.

Кроме того, крайне важно признать, что влияние технологий клонирования искусственного интеллекта на личную идентичность и межличностные отношения представляет собой лишь верхушку айсберга. Поскольку мы продолжаем идти по сложному пути в этой развивающейся области, результаты нашего исследования могут служить ориентиром, указывающим нам на то, что этические соображения и общечеловеческие ценности превыше всего.