Procesele de tip „machine learning” urmeaza sa fie folosite in California, unde inteligenta artificiala va calcula sansa ca o persoana sa recidiveze.
Informatiile vor ajunge direct la cei ce judeca cazul inculpatului, sub forma unui „grad de risc”, iar acest proces ar trebui sa elimine orice forma de prejudecata despre inculpat.
Decizia statului California e doar ultima dintr-un sir mai lung de integrari ale Inteligentei Artificiale in procesul de justitie. Care e utilitatea AI? Cu ajutorul algoritmilor de tip „machine learning”, procesul legislativ poate deveni mult mai accesibil si mai rapid pentru cetateni si judecatori, dar si mai putin costisitor pentru stat.
Sistemul nu este insa fara riscuri. Ele sunt determinate de modul in care este scris algoritmul, datele folosite pentru ”a-l educa” si capabilitatea statului de a rezista in fata atacurilor cibernetice.
Automatizarea procesului de judecata poate fi si in beneficiului cetatenilor care doresc sa-si caute dreptatea in instanta.
In Londra, scrie The Verge, un „robo–avocat” ii ajuta pe cei care doresc sa conteste in instanta amenzile date pentru parcarea neregulamentara, dar si posibile taxari exagerate din partea companiilor aeriene si a bancilor.
Totusi, mai multe consortii si organizatii din domeniul inteligentei artificiale si al legii s-au aratat ingrijorate de modul in care sistemele automate de determinare a gradului de risc sunt „hranite” cu informatii eronate, fapt ce poate duce la incarcerarea nejustificata a cetatenilor. Cum pot sistemele de „machine learning” sa imbunatateasca procesul de judecata?
Inteligenta artificiala este deja folosita pentru a citi si procesa documente mult mai repede si cu mai putine costuri decat ar putea un om, conform Association of Computing Machinery. Acest fapt poate scurta timpul in care judecatorul poate da o sentinta intr-un proces.
Tot cu ajutorul IA-ului, judecatorii pot fi informati despre posibilitatea ca o persoana sa recidiveze si daca aceasta constituie un pericol viitor pentru societate.
Algoritmii pot crea si un profil despre acuzat, pe baza cazierului, faptelor si altor cazuri similare de pana acum.
Un alt avantaj speculat de catre promotorii acestor implementari ar fi faptul ca software-ul nu ar cadea prada prejudecatilor ce tin de sexul, originea sau etnia celor acuzati, conform AI News.
Ce riscuri prezinta integrarea sistemelor automate in procesul de judecata?
Calitatea algoritmilor folositi in determinarea gradelor de risc va fi strans legata de calitatea codului din spatele programului si de calitatea informatiile oferite acestor programe.
Partners for AI, un consortiu de companii (printre care se numara Google, Amzon si Facebook) din domeniul inteligentei artificiale, a emis un raport in care cere statului California sa fie precaut in momentul in care apeleaza la inteligenta artificiala pentru a solutia procese. Peter Eckersley, directorul de cercetare al PAI, declara ca atat noile, cat si vechile metode de procesare a datelor pot produce rezultate partinitoare.
Si Los Angeles Times scrie ca „acest bias inerent este un motiv suficient pentru a se opune utilizarii acestor unelte”.
In California au aparut voci care critica faptul ca algoritmii sunt „hraniti” cu caziere realizate in baza unor prejudecati de rasa, origine sau sex, ceea ce poate determina o perpetuare a unor discriminari prezente in sistemul judiciar american.
Un alt impediment in calea implementarii unui sistem automatizat il constituie starea infrastructurii digitale si gradul de protectie al acesteia in fata unui atac cibernetic.
In luna mai, statul Philadelphia a fost lovit de un atac cu virus malware care a paralizat platforma online a instantelor de judecata din statul american. Conform publicatiilor The Verge si abajournal.com, situatia nu a fost rezolvata definitiv nici pana astazi, aceasta afectand in mod sever capacitatea instantelor de a-si desfasura activitatea.
Citata de site-ul euronews.com, Clementina Barbaro, secretarul Comisiei Europene pentru Eficienta Justitiei (organism al Consiliului Europei) declara, in ianuarie, ca inteligenta artificiala exarcebeaza discriminare in cazul proceselor de judecata. (I.P.)