Карл Митчем (род. 1941) - почетный профессор гуманитарных наук, искусств и социальных наук в Горной школе (государственный университет), Колорадо, в США, а также приглашенный профессор различных университетов Китая. Он внес значительный вклад в развитие таких важных философских направлений, как философия техники, философия инженерной деятельности, политическая философия техники, техническая этика. Одной из его самых сильных сторон является то, что он превосходно знает не только европейскую философскую традицию, но и китайскую. Он помогает выстроить мост между Востоком и Западом. В современную эпоху геополитического хаоса это особенно важно. В последние годы профессор Митчем фокусируется на проблеме этики искусственного интеллекта, которую он обсуждает на разных философских площадках США, Европы, Китая. Одному из участников этого диалога удалось прослушать несколько докладов на эту тему в апреле 2024 года в Пекине и Шанхае. В связи с этим родилась идея взять интервью у американского философа, в конечном счете трансформировавшаяся в содержательную философскую беседу. Основная идея профессора Митчема заключается в том, что одной этики недостаточно, ее необходимо дополнить политикой. Этика и политическая философия - это две части одного и того же учения о человеческом благе. Проблема этики ИИ также должна быть усилена политической философией. В целом в беседе поднимается вопрос о возможности политической философии техники. В контексте многополярного мира участники данного диалога привлекают внимание к необходимости учитывать культурные особенности и национальные традиции мышления в политической философии и этике ИИ.
Ожидается, что ChatGPT, большая языковая модель (LLM) от OpenAI, окажет огромное влияние на многие аспекты жизни общества. В средствах массовой информации ведется много дискуссий по поводу LLM, а ученые все чаще обсуждают ее преимущества и этические недостатки. В этой статье исследуется глубокое влияние диалога в сократовском значении на западную и незападную мысль, подчеркивая его роль в поисках истины посредством активного мышления и диалектики. В отличие от сократического диалога, ChatGPT генерирует правдоподобные ответы на основе заранее подготовленных данных, не стремясь к объективной истине, личному опыту, интуиции и сочувствию. Ответы LLM ограничены набором обучающих данных и алгоритмами, которые могут закреплять предвзятость или дезинформацию. В то время как сократический диалог представляет собой творческий, философский обмен, наполненный онтологическим, этическим и экзистенциальным смыслом, взаимодействие с ChatGPT характеризуется как интерактивная обработка данных. Но так ли это на самом деле? Возможно, мы недооцениваем потенциал эволюционного роста больших языковых моделей? Эти вопросы имеют важные последствия для теоретических дебатов в когнитивной науке, меняя наше понимание того, что означает познание в искусственном и естественном интеллекте. В этом специальном выпуске ChatGPT как предмет философского анализа рассматривается с позиций сдержанного оптимизма и довольно жесткой критики. В него вошли шесть статей, охватывающих широкий круг тем. Первая группа исследователей подчеркивает, что машинное понимание и общение соответствуют человеческой практике. Другие утверждают, что ИИ не может достичь человеческого уровня интеллекта, потому что ему не хватает концептуального мышления и способности творить. Столь противоречивые интерпретации лишь подтверждают сложность и неоднозначность изучаемого феномена.
Эффективность внедрения роботов в разных сферах общества зависит не только от технических характеристик самого робота, но и от того, как разные социальные группы относятся к ним и насколько готовы с ними взаимодействовать. Социальные установки по отношению к роботам, в свою очередь, зависят от социокультурных и социоструктурных факторов. В рамках социологии техники и акторно-сетевой теории рассматривается социальное значение технических устройств, процессы социальной адаптации и коммуникации с ними, при этом эмпирических исследований в сфере человеко-машинного взаимодействия (HRI) именно на российском материале ещё недостаточно. В статье представлены результаты исследования, в ходе которого рассматривается восприятие роботов реальными и потенциальными пользователями в двух аспектах: на уровне базовых социальных установок по отношению к новым технологиям и роботам (социальная приемлемость) и на уровне оценки взаимодействия с роботом в конкретной ситуации (практическая приемлемость). Эмпирической базой работы служит опрос клиентов многофункционального центра предоставления государственных и муниципальных услуг в г. Перми, которые получали услуги либо у сервисного антропоморфного робота Promobot V.4, либо у сотрудника центра. На основе кластерного анализа выделены три типа (кластера) отношения к инновациям и роботам на уровне базовых социальных установок: робоскептики, робофобы, робофилы. Рассмотрены социальные характеристики выделенных типов. Предложена оригинальная методика измерения удовлетворённости фактическим взаимодействием с сервисным роботом в конкретной ситуации по различным параметрам (оценка удобства получения услуги, качество общения, личная активность, готовность рекомендовать получение услуги у робота и др.). В ходе исследования подтверждается гипотеза о взаимосвязи между типом отношения к инновациям и роботам и удовлетворённостью фактическим взаимодействием с роботом в конкретной ситуации. Наиболее низкие показатели удовлетворённости взаимодействием с сервисным роботом и стремление избежать этого взаимодействия наблюдаются у робофобов, к которым чаще относятся лица старшей возрастной группы (55 лет и старше). Результаты исследования позволяют определить перспективы внедрения сервисных роботов в общественном пространстве крупного российского города на основе понимания социальных установок пользователей.