17:39 | 16.09.21 | Новости | 19091

Дарон Ачемоглу о рисках распространения технологий искусственного интеллекта

Распространение технологий искусственного интеллекта может повлечь различные риски, которые снизят общее благосостояние, негативно скажутся на уровне ценовой конкуренции, рынке труда и свободе выбора. Однако сама по себе технология крайне перспективна - риски связаны в первую очередь с ее нерегулируемым использованием. Как сообщает Коммерсантъ, об этом в статье, опубликованной Национальным бюро экономического анализа, пишет экономист, профессор Массачуссетского технологического института Дарон Ачемоглу.

Он выделяет три основных группы рисков.

Первая касается получения и контроля над информацией. Концентрация информации о пользователях и обработка этих данных ИИ повышает риски того, что корпорации будут забирать большую часть выгоды потребителей. Речь о том, что повышение полноты информации о пользователе позволяет повышать цену для тех потребителей, которые готовы платить больше, тогда как ранее корпорации были вынуждены держать более низкую среднюю цену, чтобы привлечь больше покупателей. Конкуренция может стать менее справедливой — опять же из-за того, что у одной компании будут более полные данные, чем у другой. Более того, развитие ИИ потенциально дает возможность манипулировать поведением граждан или потребителей, используя их уязвимости (то есть ИИ будет знать больше информации о пользователе, чем он сам).

Вторая группа рисков касается влияния новых технологий на рынок труда: когда автоматизация лишь замещает труд, а не ведет к увеличению производительности, общее ее влияние на экономику будет негативным из-за снижения зарплат и доли занятых. Поэтому автоматизация может быть невыгодна с точки зрения общего благосостояния, поясняет Ачемоглу.

Дарон Ачемоглу Дарон Ачемоглу
photo © Becker Friedman Institute


Помимо этого, существует представление, что ИИ позволит избавить сотрудников от рутинных задач, но снизит способность людей принимать самостоятельные решения, так как все большее их количество будет передаваться алгоритмам.

Третья группа рисков касается влияния ИИ на коммуникацию и демократические процессы. В этот блок автор включает негативные последствия от распространения ложной или некорректной информации, что усиливается эффектом «эхо-камеры» — когда пользователи соцсетей получают только ту информацию, которая подтверждает их собственную позицию, а  это ведет к поляризации мнений.