Расовото профилиране чрез ИИ повдига една етична дилема

Меган Куни | 22 април 2019 г.

Изкуственият интелект (AI) се развива бързо и много страни (по-специално Китай) се опитват да го внедрят в своето правителство, по-специално по отношение на правоприлагането. Китай е въвел AI, за да работи в единство със своя отдел по сигурността, като го използва за расово профилирани хора: инженерите са в състояние да въвеждат данни в системите за изкуствен интелект, като по този начин го обучават да се възползват от модели или черти. Във връзка с расовото профилиране, те ще кажат на машината изобилие от маркирани изображения на избраната група. 
Технологиите са очарователни и доходоносни, но когато се използват по този начин, ни насочват към един тъмен път, където авторитарните правителства могат по-добре да инжектират своите правила и мисли в обществото. Ако AI продължава да бъде манипулиран за лоши причини, той може да предвиди заплаха за демокрацията и да прекъсне всякакви надежди за един по-единен свят.

Нека вземем момент и да анализираме това, което Китай в момента прави. Голяма група етнически малцинства уйгурите в Китай, се профилират расово . Пристрастието срещу тази група хора се утвърди през 2009 г., когато между уйгурите и китайците възникнаха бурни бунтове и драматично ескалира през предходните години. Милиони уйгурите са задържани и в лагерите за задържане , в съответствие с китайската кампания за превъзпитание, която принуждава културната асимилация или, както властите я наричат, „трансформация чрез образование“Използвайки технологията за разпознаване на лица, която е интегрирана в китайските камери за наблюдение, те изглеждат изключително за уйгурите въз основа на техния външен вид и след това водят записи за техните пристигания и излизания. Това е практически автоматизиран расизъм.

Особено в западния район Синцзян, където живеят много уйгури, Китай също проследява ДНК . Близо 12 полицейски управления в 16 различни провинции в Китай са поискали този AI. Използват се подобни инструменти, които биха могли да автоматизират пристрастия, основани на етноса и цвета на кожата на човека. Технологичните компании в Китай започват да пускат на пазара своите продукти към това. Стартираща компания, наречена CloudWalk touts, че техните камери за наблюдение могат да проследяват „чувствителни групи от хора“.

Може би най-смущаващият аспект на всичко е, че това практикува социален контрол. За по-голямата част от технологичната ера, AI е погълната от демокрациите и е посрещната с интриги и оптимизъм. Изтъкнати примери за AI включват Siri, Амазонката на Alexa и характеристиките на Tesla и Netflix. Техните софтуери са в състояние да проследяват и разбират своите потребителски бази и след това да се адаптират към маркетинговата стратегия на фирмата. Кой не е издънка за Netflix? Малцина обаче са помислили за тъмната страна на технологиите.

AI е толкова завладяващ, колкото и ефективен , и има невероятно малка грешка и липсва емоция. Недостатъкът е, че AI е скъп и затова е най-достъпен за богатите. Както богатството понякога предполага сила, това означава, че тези изключително ценни и влиятелни машини са в ръцете на малкото. В случая с Китай, в ръцете на авторитарното правителство. AI е практически свръхчовек без морален компас.

Без да се промъкнем в мелодрама, си струва да признаем, че това може да има пагубно въздействие върху обществото, ако не се използва за подобряване на хората. Ако страните продължат да прилагат ИИ, както и Китай, това ще затвърди настоящите обществени въпроси по отношение на дискриминацията, расизма, сексизма, хомофобията и почти всеки “иизъм”, за който може да се мисли. Това циркулира и непреднамерено улеснява груповата мисъл атмосфера и със сигурност подсилва разделението между групата и групата извън нея.

Предполага се, че технологиите ще подобрят обществото и се надяваме да ни подтикнат към един по-единен свят. Не можем да позволим на нежеланите групи да ни забранят от такова бъдеще. Необходимо е да признаем и да действаме по отношение на стратегиите, използвани в Китай. Не трябва да се обръщаме към технологиите, а трябва да внимаваме за хората, които стоят зад него.

https://duclarion.com/…/racial-profil

Author: Uyghur