Учёные начали отказывать в докладах коллегам, следящим за людьми

Этика научных исследований

Этика научных исследований всё больше беспокоит учёных в связи с тем, что некоторые научные исследования откровенно нарушают частную жизнь людей и их публикация или оглашение приводит к далеко идущим последствиям. От призывов американские исследователи перешли к делу, и на одной из крупнейших научных конференций учредили цензурный комитет, изучающий доклады перед тем, как они прозвучат с трибуны.

В результате на прошедшем в декабре 2020 года в режиме онлайн Совещании по системам обработки нейронной информации (NeurIPS) четыре исследования, посвящённые технологиям искусственного интеллекта (ИИ), так и не были заслушаны. 9.5 тысяч докладов успешно прошли цензуру, хотя 290 показались рецензентам сомнительными (базы данных явно собирались без согласия участников). Комитет решил отвергать только очевидно неэтичные исследования с серьёзными нарушениями.

”Я думаю, что ценно уже то, что учёных заставили думать об этих вещах», — рассказал журналу Nature Джек Поулсон из Торонто, Канада. Исследователь надеется, что политика организаторов научных конференций поможет изменить культуру в области разработки методов применения искусственного интеллекта.

«Всеядность» в этом деле привела ко многим злоупотреблениям, от массового изготовления поддельных видео (якобы распознавания лиц и фальшивых изображений с камер наблюдения) до ареста ни в чём не повинных людей, которых полиция получила возможность «брать в оборот» (подозревать) на основании записей видеокамер.

Успешный опыт отслеживания неэтичных научных докладов будет применяться и дальше. Более того, теперь для участия в престижных научных конференциях по ИИ докладчикам потребуется представить заявление о воздействии их исследований на общество, включая любые возможные негативные последствия применения этих технологий политиками, компаниями или силовиками.

Учёный должен понимать социальную ответственность за изобретение методов, из-за которых затем произойдёт вторжение в частную жизнь людей и многочисленные неприятности.

Эта идея была предложена на конференции группой Брента Хехта, специалиста по человеческому воздействию технологий в Microsoft и Северо-Западном университете в Эванстоне, которая носит название Future of Computing Academy. Хехт борется за анализ этической составляющей с 2018 года.

Поделиться с друзьями
Подписка на рассылку