Команда учёных из Великобритании и США провела три эксперимента и выяснила: во-первых, респонденты не всегда могут отличить снимки реальных людей от лиц, созданных с помощью нейронной сети NVIDIA. Во-вторых, порой ненастоящие лица вызывают у участников исследования больше доверия.
В первом эксперименте приняли участие 315 добровольцев. Им показывали 128 снимков из базы в 800 снимков и просили определить, реальный это человек или портрет, созданный нейросетью. Добровольцы выполнили задание с точностью 48,2%. Особенную трудность у участников эксперимента вызвали синтезированные ИИ-системой лица белых мужчин и женщин. По словам учёных, дело в том, что нейросетевую модель обучали преимущественно как раз на фотографиях людей европеоидного типа, именно поэтому фейковые снимки белокожих людей получаются у нейросети особенно хорошо и их легко принять за настоящие фото.
В ходе второго эксперимента 219 других добровольцев выполняли то же самое задание. Но, в отличие от участников первого эксперимента, их предварительно обучали отличать фотографии реальных людей от портретов, сгенерированных моделью NVIDIA. Однако даже после обучения участники эксперимента отличали настоящие лица от ненастоящих с точностью всего в 59%. Труднее всего, как и в первом эксперименте, добровольцам было отличить настоящих светлокожих мужчин и женщин от ненастоящих.
Во время третьего эксперимента 223 добровольца определяли, насколько можно доверять людям с лицами со 128 снимков, взятых из той же самой базы. Участники оценивали лицо на каждой фотографии по шкале от 1 (крайне ненадёжно, доверять нельзя) до 7 (очень надёжно, можно доверять). В итоге выяснилось, что синтетические лица вызывают на 7,7% больше доверия у добровольцев, чем лица настоящих людей. В целом лица женщин вызывали у участников эксперимента больше доверия, чем лица мужчин, а лица чернокожих — больше доверия, чем лица выходцев из Южной Азии (очевидно, если бы эксперимент проводился в Азии, распределение могло быть иным).