Pravičnost umetne inteligence

Dandanes je na področju umetne inteligence veliko govora o velikih podatkih (angl. Big Data), strojnem učenju, vzorcih in nevronskih mrežah, malo pa o družbenih problemih, ki jih umetna inteligenca lahko prinese. Pa s tem ne mislimo na apokaliptične napovedi ali izgube služb, o čemer sem pisal v prejšnjih člankih, ampak o problematiki zaupanja. Ali lahko umetni inteligenci zaupamo, da je pravična in kako vemo, če je?

Umetni inteligenci v 21. stoletju zaupamo že pri mnogih zelo pomembnih nalogah in mnogokrat se tudi opečemo. Problem pravičnosti ni prisoten v algoritmih strojnega učenja, saj ti iz podatkov razberejo le tisto, kar se da razbrati. Problem je v podatkih.

Podatki na podlagi katerih se algoritmi umetne inteligence učijo so namreč pogosto pristranski in predvsem neobjektivni (angl. biased). Znan je primer, ko so na policijski postaji v ZDA uvedli pametni sistem za razporejanje patrulj. Po nekaj mesecih so policisti ugotovili, da je večina patrulj napotenih prav v črnske dele mest, kar je začelo ljudi razburjati. Problem se je pojavil, ker so imeli v podatkovnih bazah policijske postaje pristranske vpise, saj je bila večina kriminalnih primerov iz črnskih delov mesta, zapisi pa niso bili reprezentativnega značaja. Umetna inteligenca je zato sklepala, da je tam več kriminalnih dejanj in je zato tja napotila več patrulj kot drugod. Ker so imeli ti deli mesta posledično več patrulj, so te patrulje zabeležile več zločinov. Seveda je logično, da bodo v delih mesta, ki so bolj nadzorovani, našli več kriminalnih dejanj kot drugod. A to še ni vse, ker so patrulje zabeležile več zločinov kot drugod, je sistem tja pošiljal vedno več patrulj in kmalu so bile skoraj vse patrulje prisotne zgolj v tistih delih mesta. To je samo eden primer, kako moramo biti pozorni pri vhodnih podatkih, saj prav ti algoritmom nudijo vpogled v problem. Če so podatki »slabi«, bo slaba tudi rešitev.

Podatki so zlato področja umetne inteligence. V današnjem času se pa vse pogosteje omenja pojem Big Data.
Vir slike

Taki in podobni primeri dajo problem pristranskih podatkov v perspektivo. Zato so nedavno raziskovalci IBM-a predlagali sistem, ki bi lahko zagotovil, da je umetna inteligenca, ki jo uporabljamo, res varna, transparentna, poštena in efektivna. Standard prepisuje, da bi morali razvijalci, preden začnejo prodajati svoje algoritme javnosti, objaviti tako imenovano Izjavo dobavitelja o skladnosti (angl. Supplier’s Declaration of Conformity oz. SDoC). Ta izjava bi bila nekakšno poročilo, ki bi pokazalo, kako dobro se algoritem obnese na standardiziranih testih uspešnosti, poštenosti in faktorjih tveganja.

Potrebo po nekakšnem kvalitativnem in kvantitativnem standardu hitro uvidimo, če se ozremo na druge industrije. Stranke lahko na primer zaupajo zavoram avtomobila, avtopilotu letala in ravno zgrajenemu mostu, ker vedo, da so podvrženi številnim varnostnim testom. Podobno je pri hrani, kjer Republika Slovenija nadzoruje kakovost, varnost in poreklo hrane – kako bi to lahko sicer izboljšali, pa si lahko preberite v tem članku. Zakaj potem ne bi tako pereča tema, kot je umetna inteligenca, uporabljala kakšnih podobnih testov?

IBM je svojo Izjavo dobavitelja o skladnosti osnoval na podlagi štirih stebrov, ki bi jih moral vsebovati vsak zaupanja vreden sistem umetne inteligence:

  • Poštenost: Sistem z implementirano umetno inteligenco bi morali uporabljati podatkovne sete in modele, ki so nepristranski, saj se lahko le tako izognemo pristranskemu obravnavanju določenih skupin.
  • Robustnost: Sistem z implementirano umetno inteligenco mora biti varen in zavarovan pred zlorabami oz. spreminjanjem podatkov, na podlagi katerih se sistem uči.
  • Razumljenost: Sistem z implementirano umetno inteligenco mora zagotavljati, da so njegova dejanja in namigi, razumljivi tako za uporabnike kot tudi za razvijalce.
  • Poreklo: Sistem z implementirano umetno inteligenco mora vključevati podatke o njegovem razvoju, namestitvi in vzdrževanju.

Pri tem pri IBM-u poudarjajo, da podobno kot fizična struktura, tudi ta struktura zaupanja ne more stati samo na enem samem stebru. Če je namreč sistem pošten, a ne varen, mu ne moramo zaupati, podobno tudi če je varen, a njegovih odločitev ne razumemo. Za najboljši sistem z implementirano umetno inteligenco je namreč potrebno okrepiti prav vse stebre in prav to naj bi zagotavljal standard SDoC. Vzorčen seznam vprašanj lahko vsebuje sledeča vprašanja:

  • Ali ima podatkovni set, ki je bil uporabljen za treniranje storitev, izjavo o transparentnosti podatkov?
  • Je bil podatkovni set testiran za pristranskost?
  • Je bil podatkovni set kakorkoli zmanjšan?
  • Kakšno je pričakovano obnašanje sistema, če vhodni podatki med izvajanjem odstopajo od prvotnih (angl. training) podatkov?
  • Opišite metode testiranja.

Seveda zahteva po uporabi tega IBM-ovega standarda problema ne bo popolnoma rešila. Nekateri sistemi so namreč tako zahtevni, da podrobna analiza niti ni mogoča. Še več, da bo sam standard dejansko dobil na veljavi in kredibilnosti, bi ga morali začeti uporabljati prav vsi razvijalci na področju umetne inteligence. Kljub temu še vedno ne vemo, če bodo pri izbiri ustrezne programske opreme stranke standard sploh upoštevale. Odprtih vprašanj je še veliko, a pomembno je, da se stvari premikajo naprej tudi v tej smeri, saj bo pravičnost umetne inteligence še kako pomembna tematika v družbi prihodnosti.

Viri:

Komentarji
Žan Magerl

Žan Magerl

Poleg tega, da je splošno izjemno razgledan, je tudi človek, ki vsaki stvari želi priti do dna, ugotoviti kako kaj deluje, zakaj je takšno kot je in ali bi to lahko izboljšali. To pomeni, da se bo čisto spustil v stvar, ki mu je trenutno padla v oči, in ne bo nehal, dokler ne ugotovi vsega, kar je za ugotoviti o določeni temi.
Verjetno bi ga lahko z eno besedo povzeli kot radovednega.
Žan Magerl

Latest posts by Žan Magerl (see all)

Žan Magerl

Poleg tega, da je splošno izjemno razgledan, je tudi človek, ki vsaki stvari želi priti do dna, ugotoviti kako kaj deluje, zakaj je takšno kot je in ali bi to lahko izboljšali. To pomeni, da se bo čisto spustil v stvar, ki mu je trenutno padla v oči, in ne bo nehal, dokler ne ugotovi vsega, kar je za ugotoviti o določeni temi. Verjetno bi ga lahko z eno besedo povzeli kot radovednega.

Ena misel o “Pravičnost umetne inteligence

Komentarji so onemogočeni.