24 апр , 00:02
19
Реальные риски ИИ волнуют людей больше, чем апокалиптические сценарии, показало масштабное исследование
Исследователи Цюрихского университета выяснили, что большинство людей гораздо серьезнее относятся к текущим проблемам искусственного интеллекта, чем к теоретическим сценариям "конца света". Масштабный опрос, охвативший более 10 000 респондентов из США и Великобритании, раскрыл неожиданные особенности общественного восприятия технологических рисков. Результаты работы опубликованы в престижном научном издании Proceedings of the National Academy of Sciences.
Ученые обнаружили, что несмотря на активное обсуждение "экзистенциальных угроз" в медиапространстве, рядовые граждане больше обеспокоены осязаемыми проблемами: алгоритмической предвзятостью, распространением фейков и потенциальной потерей рабочих мест из-за автоматизации. Примечательно, что даже когда участникам показывали пугающие заголовки с апокалиптическими образами, их внимание все равно фокусировалось на насущных вызовах.
"Респонденты ясно различают теоретические, гипотетические опасности и реальные, уже существующие проблемы, и относятся к последним с очень высокой степенью серьёзности", - подчеркнул профессор Фабрицио Джиларди, соавтор исследования.
Любопытно, что даже когда у участников возникали тревожные чувства в ответ на драматические описания будущего с ИИ, уровень беспокойства о конкретных, наблюдаемых сегодня угрозах оставался выше. Это опровергает распространенное мнение о том, что разговоры о гипотетических сценариях отвлекают общество от актуальных проблем.
"Общественная дискуссия не должна превращаться в выбор между крайностями - либо говорить только о настоящем, либо только о будущем", - подчеркнул Джиларди. - "Необходимо одновременно принимать во внимание и существующие, и потенциальные долгосрочные риски, связанные с развитием искусственного интеллекта".
Исследование впервые предоставило систематические данные, подтверждающие, что даже при повышенном внимании к возможным будущим угрозам, общественный интерес к актуальным проблемам остаётся высоким. Авторы подчёркивают необходимость широкого и сбалансированного диалога по вопросам этики, социальной ответственности и рисков, которые возникают в связи с развитием технологий искусственного интеллекта.