Știri

Software-ul de recunoaștere facială are o părtinire, constată un nou raport guvernamental

Software-ul de recunoaștere facială are o părtinire, constată un nou raport guvernamental


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Sistemele de recunoaștere facială au prezentat părtinire atunci când vine vorba de identificarea și potrivirea indivizilor de culoare, arată un nou studiu federal.

Studiul de referință arată o lumină negativă asupra software-ului care este utilizat din ce în ce mai mult de agențiile de aplicare a legii din toată țara.

ÎN LEGĂTURĂ: SOFTWARE-UL DE RECUNOAȘTERE FACIALĂ A FOST FOLOSIT PENTRU A CAPTA UN SUSPECT DE ASASINAT ÎN CHINA

Afro-americani, asiatici de 100 de ori mai predispuși să fie identificați greșit

Studiul Institutului Național de Standarde și Tehnologie a constatat că persoanele afro-americane și asiatice erau de până la 100 de ori mai susceptibile de a fi identificate greșit prin intermediul software-ului de recunoaștere facială decât caucazienii, în funcție de algoritmul individual. Dintre algoritmii dezvoltați în SUA, populația indiană americană a avut cele mai mari rate de fals pozitiv.

Studiul a constatat, de asemenea, că femeile afro-americane au cele mai mari rate de fals pozitive pentru potrivirea unu la unu, care este frecvent utilizată de forțele de ordine pentru a căuta milioane de oameni într-o bază de date pentru a găsi un suspect. Testul NIST a folosit doar o singură bază de date FBI care conținea 1,6 milioane de căni interne.

"Diferențialele în ceea ce privește falsurile pozitive în potrivirea unu-la-mulți sunt deosebit de importante, deoarece consecințele ar putea include acuzații false", a spus NIST într-un comunicat de presă care evidențiază rezultatele studiului. NIST a observat că rezultatele au variat de la un algoritm la altul, spunând că „cel mai echitabil se clasează și printre cei mai exacți”.

NIST a analizat 189 de algoritmi

NIST a realizat studiul prin programul său de testare a furnizorului de recunoaștere a feței, în care evaluează algoritmii de recunoaștere a feței de la companiile de software și dezvoltatorii academici cu privire la capacitatea lor de a îndeplini sarcini. În acest studiu, a folosit patru colecții de fotografii în valoare de 18,27 milioane de imagini a 8,49 milioane de persoane. Toate imaginile au venit de la Departamentul de Stat, Departamentul pentru Securitate Internă și FBI.

NIST a testat 189 de algoritmi software depuși de 99 de dezvoltatori, dintre care majoritatea erau companii. NIST a analizat cât de bine se potriveau algoritmii cu fotografiile aceleiași persoane, care sunt utilizate în mod obișnuit pentru a debloca un smartphone sau pentru a verifica pașaportul și este cunoscut sub numele de potrivire „unu-la-unu”. Agenția guvernamentală a testat și capacitatea algoritmului de a potrivi o persoană dintr-o fotografie cu imaginile dintr-o bază de date. Cunoscut ca potrivire „unu-la-mulți”, poate fi folosit pentru a identifica o persoană de interes.

"Într-o căutare individuală, un fals negativ ar putea fi doar un inconvenient - nu puteți intra în telefon, dar problema poate fi remediată de obicei printr-o a doua încercare", Patrick Grother, informatician NIST și autorul principal al raportului. „Dar un fals pozitiv într-o căutare unu-la-mulți pune o potrivire incorectă pe o listă de candidați care justifică un control mai aprofundat”.


Priveste filmarea: Just how dangerous is facial recognition? Watch this to find out (Iunie 2022).