Текст уведомления здесь

Российские ученые собрали все позы разнополых пар

База данных поз и жестов необходима для систем искусственного интеллекта, распознающих эмоции людей в разном настроении.
Добавить в закладки
Комментарии

Психофизиологи из МГУ им. М.В. Ломоносова приняли участие в сборе видеоматериала для базы данных RAMAS (The Russian Acted Multimodal Affective Set). Она предназначена для обучения искусственного интеллекта распознаванию эмоций. Особенность RAMAS в том, что в нее входит информация не только о мимике людей, имеющих определенное настроение, но и характерных для этого настроения движениях конечностей и положениях тела. Препринт научной статьи опубликован на сайте журнала PeerJ.

Для составления базы данных пригласили 10 профессиональных актеров — пять мужчин и пять женщин. Из них составили разнополые пары. Каждая пара участвовала в съемках два раза, изображая либо коллег по работе, либо членов семьи, либо знакомых. Их просили разыграть несколько сцен, каждой из которых требовалось выразить одну из шести базовых эмоций — радость, гнев, грусть, отвращение, страх, удивление. Актеры в паре могли демонстрировать одну и ту же эмоцию либо две разных.

Движения добровольцев синхронно записывали несколько видеокамер: одна — всю сцену целиком, другая — одного актера в полный рост. Также шла мультиканальная запись звука и регистрировались координаты перемещения 25 точек тела каждого человека в трехмерном пространстве и относительно друг друга. Параллельно с этим специальные датчики фиксировали, как меняется кровоток в сосудах пальцев (фотоплетизмограмма, позволяет вычислить частоту сердечных сокращений) и электрическую активность кожи (отражает уровень эмоционального возбуждения).

Сразу после каждой записи актеры заполняли анкету эмоционального состояния, показывающую, действительно ли они испытывали ту эмоцию, которую разыгрывали. Далее специально приглашенные люди (их было 21) с высоким эмоциональным интеллектом отсматривали полученные видео и отмечали конец и начало отрезков записи, во время которых актеры выражали определенные эмоции.

На основании оценок экспертов, результатов анкетирования и наименования эмоции, которую ученые просили изобразить, все видеозаписи, аудиозаписи, показания фотоплетизмограммы и электрической активности кожи распределили по папкам «радость», «гнев», «грусть», «отвращение», «страх, «удивление». Полученная база данных — RAMAS — доступна для всех исследователей и разработчиков искусственного интеллекта, отправивших запрос с указанием своего места работы. Как считают составители RAMAS, ее использование позволит эффективнее настраивать системы автоматического распознавания эмоций.

Добавить в закладки
Комментарии
Вам понравилась публикация?
Расскажите, что вы думаете, и мы подберем подходящие материалы