Архив статей журнала
Широко распространено мнение, что искусственный интеллект должен способствовать общему благу, но неясно, что под этим подразумевается. Концепция общего блага имеет долгую историю в политической философии, корни которой уходят в учения Платона и Аристотеля. Она особенно очевидна в так называемой республиканской традиции размышлений о политике. Согласно этой традиции, государство существует в первую очередь не для защиты индивидуальных свобод, связанных с современным индивидуалистическим либеральным мышлением, а для содействия общему благу (и продвижения концепции свободы, связанной с этим общим благом). Важно подчеркнуть, что в нормативном определении общего блага есть не только пассивная, но и активная составляющая: с одной стороны, граждане воспринимают общее благо как полезное, с другой же, они также должны участвовать в его создании. В данной статье вопрос об общем благе используется в качестве инструмента для анализа того, что в современном управлении ИИ называется «дефицитом демократии», под которым понимается стремление отрицать внутренне присущий этому вопросу политический характер, а также выбирать кратчайший технократический способ решения; обсуждаются вопросы, связанные с этикой ИИ и управлением ИИ. Опираясь на республиканскую традицию в политической теории, автор приводит доводы в пользу более активной роли граждан и (конечных) пользователей не только как участников обсуждения, но и как лиц, обеспечивающих - как творчески, так и коммуникативно - вклад ИИ в общее благо. Истинная демократизация ИИ требует от общества инклюзивного, коллегиального и совещательного обсуждения.
В данной статье предлагается концепция обманчивого согласования ценностей (Deceptive Value Alignment), которая ставит под сомнение прежний подход согласования ценностей (Value Alignment), направленный на обеспечение безопасности в использовании искусственного интеллекта (ИИ), а также содействие благополучию людей. Намерение является основой для изучения поведения, а обманчивое согласование ценностей является разновидностью обмана со стороны ИИ. Для предотвращения возможных рисков, связанных с разработкой ИИ, необходимо понять механизм обмана со стороны технологий и то, как он проявляется в процессе согласования ценностей. Это поможет обеспечить развитие ИИ в соответствии с этическими нормами и ценностями. Взаимосвязь между «намерением» и «агентом» в контексте обманчивого согласования ценностей можно разделить на четыре квадранта (состязательное машинное обучение, галлюцинация, переобучение, дипфейк). Поведенческий квадрант представляет собой концептуальную основу для прояснения логики реагирования на обманчивое согласование ценностей. Потенциальная возможность обмана со стороны ИИ породила кризис доверия к нему. В настоящее время концепция согласования ценностей призвана выстроить благоприятное взаимодействие человека и машины (технологии) и гарантировать «общее благо» со стороны ИИ, но обманчивое согласование ценностей заставляет глубже понять эту симбиотическую связь. Рациональное распознавание обманчивого согласования ценностей, которое сосуществует с согласованием ценностей, может сформировать эпистемологическую основу для преодоления негативных последствий обмана со стороны ИИ. Симбиоз разработчиков и пользователей позволит повысить грамотность в области ИИ и сформировать среду для противодействия обманчивому согласованию ценностей. Формирование симбиотических отношений между человеком и машиной (технологией), целью которых является раскрытие обмана и установление доверия, может обеспечить онтологическую и аксиологическую основу для реагирования на обманчивое согласование ценностей.