Представьте себе, если хотите, цифрового двойника. Клон, который выглядит, говорит и ведет себя точно так же, как вы, созданный из глубин искусственного интеллекта, отражающий все ваши манеры с жуткой точностью. Как бы волнующе это ни звучало, как бы вы к этому отнеслись?
Наше исследование, проведенное в Университете Британской Колумбии, привлекает внимание именно к этому вопросу. Благодаря достижениям в области технологий глубокого обучения, таких как интерактивные приложения deepfake, преобразование голоса и виртуальные актеры, стало возможным в цифровом виде воспроизвести внешность и поведение человека.
Это зеркальное отражение человека, созданное искусственным интеллектом, называется «клоном искусственного интеллекта». Наше исследование погружает в мутные воды того, что эти клоны искусственного интеллекта могут означать для нашего самовосприятия, взаимоотношений и общества. В нашей статье, опубликованной в рамках Proceedings of the ACM по взаимодействию человека и компьютера, мы определили три типа рисков, связанных с копиями искусственного интеллекта: двойникофобия, фрагментация идентичности и живые воспоминания.
Клонирующий искусственный интеллект
Мы определили клоны искусственного интеллекта как цифровые репрезентации индивидов, предназначенные для отражения некоторых или нескольких аспектов реального «исходного индивида».
В отличие от вымышленных персонажей в цифровой среде, эти клоны искусственного интеллекта основаны на существующих людях, потенциально имитируя их визуальное сходство, манеры разговора или поведенческие модели. Глубина репликации может сильно варьироваться — от воспроизведения определенных отличительных особенностей до создания почти идеального цифрового двойника.
Клоны искусственного интеллекта также являются интерактивными технологиями, предназначенными для интерпретации входных данных пользователя и окружающей среды, проведения внутренней обработки и получения ощутимых выходных данных. И что особенно важно, это технологии, основанные на искусственном интеллекте и основанные на персональных данных.
По мере того как объем персональных данных, которые мы генерируем, продолжает расти, растет и точность этих клонов искусственного интеллекта в воспроизведении нашего поведения.
Страхи, фрагменты и ложные воспоминания
Мы представили 20 участникам восемь спекулятивных сценариев с участием клонов искусственного интеллекта. Участники были разными по возрасту и происхождению и размышляли о своих эмоциях и потенциальном влиянии на их самовосприятие и взаимоотношения.
Во-первых, мы обнаружили, что доппельгангерофобия — это страх не только перед самим клоном искусственного интеллекта, но и перед его потенциальным неправильным использованием. Участники были обеспокоены тем, что их цифровые аналоги могут использовать их личность и вытеснить ее.
Во-вторых, существовала угроза фрагментации идентичности. Создание копий угрожает уникальной индивидуальности клонируемого человека, нарушая его целостное самовосприятие. Другими словами, люди беспокоятся о том, что они могут частично утратить свою уникальность и индивидуальность в процессе тиражирования.
Наконец, участники выразили обеспокоенность по поводу того, что мы назвали «живыми воспоминаниями». Это связано с опасностью, возникающей, когда человек взаимодействует с клоном кого-то, с кем у него уже есть отношения. Участники беспокоились, что это может привести к искажению личности или что у них разовьется чрезмерная привязанность к клону, что изменит динамику межличностных отношений.
Сохранение общечеловеческих ценностей
Очевидно, что разработка и внедрение клонов искусственного интеллекта имеет глубокие последствия. Наше исследование не только вносит ценный вклад в критический диалог об этичном ИИ, но и предлагает новую структуру для проектирования клонов ИИ, в которой приоритет отдается идентичности и аутентичности.
Ответственность за ответственное освоение этой неизведанной территории лежит на всех заинтересованных сторонах — включая дизайнеров, девелоперов, политиков и конечных пользователей. Это предполагает добросовестное рассмотрение стратегий модерации и истечения срока действия пользовательских данных, чтобы предотвратить неправильное использование и чрезмерную зависимость.
Кроме того, крайне важно признать, что влияние технологий клонирования искусственного интеллекта на личную идентичность и межличностные отношения представляет собой лишь верхушку айсберга. Поскольку мы продолжаем идти по сложному пути в этой развивающейся области, результаты нашего исследования могут служить ориентиром, указывающим нам на то, что этические соображения и общечеловеческие ценности превыше всего.