Остерегайтесь эмоциональных роботов: наделение чувствами искусственным существам может иметь неприятные последствия, предполагает исследование

 

Эмоциональные роботы

Исследование может повлиять на будущее искусственного интеллекта

В недавнем фильме Изгой Один: история Звездных войн лицо персонажа Гранд Моффа Таркина было построено в цифровом виде, поскольку актер, который первоначально играл его, умер. Некоторые, кто знал о компьютерном обмане, считали его внешний вид слегка неестественным, что приводило к чувству неловкости. Их дискомфорт демонстрирует то, что японский

робототехник Масахиро Мори назвал в 1970 году "сверхъестественной долиной": наша близость к роботам и анимации увеличивается, поскольку они физически кажутся более похожими на человека, за исключением большого провала, где они почти, но не совсем там.

Но что происходит, когда внешний вид персонажа остается прежним, но наблюдатели думают, что его ум стал более похожим на человека? Новое исследование показывает, что это тоже нервирует людей, что может иметь возможные последствия для ряда взаимодействий человека и компьютера.

Исследование "продвигает работу над сверхъестественной долиной", показывая, что "дело не просто в том, как [что-то] движется и как оно выглядит, но и в том, что вы думаете, что оно представляет", - говорит Джонатан Гратч, ученый-компьютерщик из Университета Южной Калифорнии в Лос-Анджелесе, который не участвовал в исследовании.работа. "Будет намного больше взаимодействий человека и машины, команд человека и машины, машин, являющихся вашим боссом, машин, пишущих газетные статьи. И поэтому это очень актуальный вопрос и проблема ".

Предыдущая работа показала дискомфорт с человекоподобными роботами, когда люди приписывали им больше эмоций. В исследовании, опубликованном психологами Куртом Греем из Университета Северной Каролины в Чапел-Хилле и Дэниелом Вегнером (ныне покойным) в 2012 году, участники смотрели короткое видео головы робота либо спереди, где они могли видеть его "человеческое" лицо, либо сзади, где они видели его "человеческое" лицо.электрические компоненты. Те, кто наблюдал за его лицом, оценили его как более способного чувствовать боль и страх, и в результате они чувствовали себя более "испуганными".

Но что происходит, когда внешний вид искусственного интеллекта остается прежним, но его эмоции становятся более похожими на человека? Чтобы выяснить это, Ян-Филипп Штайн и Питер Олер, психологи из Технологического университета Хемница в Германии, дали гарнитуры виртуальной реальности 92 участникам и попросили их понаблюдать за коротким разговором между виртуальным мужчиной и женщиной на общественной площади. Персонажи обсуждают свое истощение от жаркой погоды, женщина выражает разочарование по поводу отсутствия свободного времени, а мужчина выражает сочувствие к раздражению женщины в ожидании друга.

Все наблюдали одну и ту же сцену, но участники получили одно из четырех описаний. Половине сказали, что аватары контролируются людьми, а половине сказали, что они контролируются компьютерами. В каждой группе половине сказали, что разговор был написан по сценарию, а половине сказали, что он был спонтанным.

Те, кто думал, что они наблюдали, как два компьютера взаимодействуют автономно, видели сцену более жуткой, чем три другие группы. То есть естественное социальное поведение было прекрасным, когда оно исходило от человека или от компьютера, следующего сценарию. Но когда компьютер, казалось, чувствовал искреннее разочарование и сочувствие, он ставил людей на край, сообщает команда в этом месяце в Cognition.

Штейн и Олер называют это явление "сверхъестественной долиной разума". Но в то время как сверхъестественная долина обычно используется для описания внешнего вида робота или виртуального персонажа, это исследование показывает, что, учитывая конкретный внешний вид, только эмоциональное поведение может показаться сверхъестественным. "Это довольно аккуратно в том смысле, что они использовали все те же аватары и просто изменили их концепцию", - говорит Грей.

Некоторые работы показывают, что людям удобнее работать с компьютерами, которые демонстрируют социальные навыки, но это исследование предполагает ограничения. Например, раздражение в ожидании друга может показаться слишком человеческим. С социальными навыками может быть не сверхъестественная долина, а сверхъестественный утес. При разработке виртуальных агентов Грей предлагает: "держите разговор социальным и эмоциональным, но не глубоким".

Открытый вопрос заключается в том, почему добровольцы, которые думали, что видят два спонтанных компьютера, чувствовали себя огорченными. Штейн предполагает, что они, возможно, чувствовали, что человеческая уникальность находится под угрозой. В свою очередь, люди могут потерять превосходство и контроль над нашей технологией. В будущей работе Штейн планирует посмотреть, чувствуют ли люди себя более комфортно с человекоподобными виртуальными агентами, когда они чувствуют, что контролируют поведение агентов.

Грей и Гратч говорят, что следующие шаги должны включать измерение не только явных оценок людей жуткости, но и их поведения по отношению к социальным ботам. "Большая часть жуткости может возникнуть больше, когда вы размышляете об этом, чем когда вы находитесь во взаимодействии", - говорит Гратч. "У вас может быть приятное взаимодействие с привлекательной виртуальной женщиной, затем вы откидываетесь назад и говорите: "Уф".


Комментарии

Популярные сообщения