«От искусственного интеллекта не спрячешься». Китай тестирует на уйгурах камеры распознавания эмоций

0
ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Власти в Синьцзяне называют учреждение за этими воротами «центром профессионального обучения». Фото: Reuters

Китайские власти испытывают на уйгурах в Синьцзяне видеокамеру для определения эмоционального состояния человека, использующую технологии искусственного интеллекта и распознавания лиц, пишет ВВС.

Попросивший не называть его специалист по программному обеспечению утверждает, что лично устанавливал такие системы в отделениях полиции.

Реклама

Правозащитница, которой показали эти материалы, назвала их шокирующими.

Посольство КНР в Лондоне не отреагировало на конкретные утверждения, ограничившись обычным заявлением, что в Китае обеспечены политические и социальные права всех этнических групп.

ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Фото: pexels.com
Синьцзян — родина 12 миллионов уйгуров, подавляющее большинство которых мусульмане.

За жителями провинции ведётся постоянный надзор. Там находятся пресловутые «центры перевоспитания», которые правозащитники называют лагерями строгого режима. В этих лагерях побывали, по оценочным данным, больше миллиона человек.

Пекин заявляет, что всё это необходимо, потому что сотни людей погибли в результате террористических актов со стороны сепаратистов, стремящихся к созданию собственного государства.

Компьютерщик согласился дать интервью программе ВВС «Панорама» на условиях анонимности, поскольку боится за себя. Компания, в которой он работал, также не называлась.

Он показал «Панораме» пять фотографий задержанных уйгуров, на которых, как он сказал, тестировали оборудование для распознавания эмоций.

«Камера устанавливается в трёх метрах от человека, — пояснил он. — Это похоже на детектор лжи, но куда совершеннее».

«Китайское правительство использует уйгуров как подопытных крыс в лаборатории», — добавил он.

По словам собеседника ВВС, во многих отделениях полиции по всему Китаю используются «смирительные стулья», к которым приковываются металлическими браслетами запястья и лодыжки сидящего человека.

Он рассказал, как искусственный интеллект настраивается на распознавание даже мимолётных изменений мимики лица и состояния кожных пор.

По его словам, это выглядит как цветная круговая диаграмма на экране монитора, в которой красные сектора указывают на негативное настроение или тревожность.

ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Считанные системой эмоции представляются в виде круговой диаграммы. Красный сектор обозначает негативные эмоции. Фото: ВВС
Компьютерщик сказал, что на этом основании о людях выносятся суждения, не подкреплённые иными доказательствами.

Китайское посольство в Лондоне не ответило на запрос по поводу использования оборудования для распознавания эмоций. Ответ гласил: «Политические, экономические и социальные права и свобода религиозных убеждений всех этнических групп в Синьцзяне полностью обеспечены. Люди, независимо от их этнического происхождения, живут в гармонии и наслаждаются стабильной и мирной жизнью без ограничения личных свобод».

«Эта информация вызывает шок, — заявила, ознакомившись с полученными ВВС материалами, Софи Ричардсон, директор Human Rights Watch по Китаю. — Человек сводится к круговой диаграмме, причём в момент, когда он находится в состоянии сильного стресса, под большим давлением, и, понятно, нервничает. И такие данные принимаются как доказательство его виновности».

ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Фото: pexels.com

«Подозрительное поведение»

По словам Даррена Байлера, эксперта по Китаю из Университета Колорадо, уйгуров обязывают регулярно сдавать местным властям образцы ДНК, проходить цифровое сканирование лица и загружать в свои мобильные телефоны приложение, передающее информацию о его контактах.

«Уйгур не живёт, а генерирует данные, — говорит Даррен Байлер. — Перемещения человека отслеживаются через его смартфон. Подразумевается, что он всегда должен быть при вас, а если вы куда-то пошли без смартфона, вас могут задержать. Никакого спасения».

Большая часть этих данных поступает в компьютерную систему под названием «Интегрированная операционная платформа», цель которой — выделять людей, ведущих себя подозрительно.

«Система расценивает как подозрительные десятки поступков, являющихся абсолютно законными: например, если человек предпочитает выходить из своего дома через заднюю дверь или заправил не свою машину», — говорит Софи Ричардсон.

«Власти начали размещать QR-коды у дверей домов, чтобы знать, кто туда постоянно ходит», — добавила она.

ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Фото: pexels.com

«Один человек — одно досье»

Спор о мере зависимости китайских компаний от государства идёт давно.

Американская исследовательская группа IPVM утверждает, что обнаружила в их патентных заявках свидетельства того, что разрабатываемые технологии распознавания лиц способны выделять лиц уйгурской национальности.

В заявке, поданной в июле 2018 года компанией Huawei и Академией наук КНР, описана такая технология.

Huawei в ответ заявила, что её продукт «не предназначен для дискриминации или угнетения представителей какого-либо сообщества» и что она «независима от правительства» во всех своих действиях.

IPVM также нашла документ, свидетельствующий о том, что Huawei участвует в разработке системы под названием «Один человек — одно досье».

«Правительство сможет накапливать огромный объём информации о каждом человеке, его политической активности, отношениях с другими людьми… обо всём, что даёт возможность предсказывать его поведение и исходящую от него потенциальную угрозу», — говорит Конор Хили, представитель IPVM.

На вопрос касательно её участия в программе «Один человек — одно досье» Huawei также не ответила, снова повторив, что независима от правительства любой страны.

Китайское посольство в Лондоне заявило, что ему не известно о подобных программах.

IPVM также утверждает, что обнаружила рекламный материал китайской фирмы Hikvision, продвигающий камеру с использованием искусственного интеллекта для распознавания уйгуров, и патент на аналогичное оборудование, созданное другим китайским интернет-гигантом, фирмой Dahua.

Dahua заявляет, что её запатентованное устройство распознаёт все 56 признанных в Китае национальностей и не нацелено против какой-то одной из них.

В ответе компании говорится, что она «предоставляет продукты и услуги для обеспечения безопасности» и соблюдает законы и правила всех национальных рынков, включая британский.

Hikvision заявила, что материал на её сайте содержит ошибки и был загружен без должного предварительного рассмотрения и что среди её продуктов нет технологии для установления этнической принадлежности людей.

ВВС: Китай тестирует на уйгурах камеры распознавания эмоций, Слуцк
Hikvision изготавливает различные продукты, в том числе камеры наблюдения. Фото: VCG
Доктор Лан Сюэ, председатель Национального комитета КНР по искусственному интеллекту, сказал, что ему не известно о таких патентах.

«За пределами Китая выдвигается масса подобных обвинений. Многие из них ложны и не соответствуют действительности», — заявил он ВВС.

«Я полагаю, что правительство автономного района Синьцзян несёт ответственность за безопасность людей, и если какие-то технологии используются в данном контексте, это вполне объяснимо», — добавил он.

Посольство КНР в Лондоне высказалось категоричнее, заявив в ответ на запрос ВВС: «Так называемых технологий анализа лиц, способных распознавать уйгуров, не существует».

Под постоянным контролем

По имеющимся данным, в Китае работает примерно половина из почти 800 миллионов насчитывающихся в мире камер видеонаблюдения.

Там также создан ряд «умных городов», таких как Чунцин, где искусственный интеллект интегрирован в городскую среду.

«Вы выходите из дома, ступаете в лифт, и вас немедленно ловит камера. Они повсюду», — поделился своим опытом с программой «Панорама» живущий в Чунцине журналист-расследователь Ху Лю.

«Когда я вызываю такси, компания передаёт данные о поездке властям. Если я зашёл в кафе посидеть с приятелями, это делается известным, потому что в кафе тоже стоит камера», — рассказал он.

«Было несколько случаев, когда я в ходе журналистских расследований с кем-то встречался, и вскоре мне звонили и предупреждали: „Не общайтесь с таким-то, не делайте того и этого“».

«От искусственного интеллекта не спрячешься», — заключил Ху Лю.