Njohja dixhitale e fytyrës, është gjithnjë e më e pranishme në jetën tonë. Shumë prej nesh e përdorin atë disa herë në ditë për të zhbllokuar ekranin e smartfonit, ndërsa kompanitë e mëdha e përdorin atë për të identifikuar njerëz të veçantë në mesin e turmave të mëdha, për të analizuar emocionet e tyre, dhe për të identifikuar tipin e tyre (dhe pastaj shpesh, për t’u përpjekur t’u shesin diçka).
Pavarësisht përparimeve të viteve të fundit, algoritmet e të mësuarit makinerik, nuk janë ende të sakta, dhe siç shpjegon një artikull i botuar në versionin spanjolle “The Conversation”, ato mund të diskriminojnë njerëzit sipas gjinisë dhe racës, ose të kenë vështirësi në njohjen e transeksualëve.
Inteligjenca Artificiale është raciste
Algoritmet e të mësuarit makinerik, ndjekin modelet e vlerësimit dhe interpretimit të ndërtuara në sajë të përpunimit të sasive të mëdha të të dhënave (për shembull, imazheve). Për këtë arsye, është thelbësore që të trajnohen makineritë me të dhëna sa më përfaqësuese për çdo nuancë njerëzore: kur kjo nuk ndodh, dhe përjashtohen kategori të caktuara njerëzish, Inteligjenca Aritificiale jep rezultate të pasakta, duke pasqyruar kësisoj pasaktësitë që kemi bërë ne vetë.
Një shembull se si një koleksion jo-përfaqësues i të dhënave mbi gjithë realitetin, mund të ndikojë negativisht në funksionimin e një produkti, na vjen drejtpërdrejt nga shekulli i kaluar. Midis viteve 1940-1990, kompanitë “Kodak” dhe ”Polaroid” përdorën vetëm modele të bardha për të kalibruar produktet e tyre, me pasojat e problemeve të dritës dhe kontrastit, në interpretimin e videove ku shfaqeshin njerëz me lëkurë të errët.
Asgjë e re
Pavarësisht nga shembujt e “Kodak” dhe “Polaroid”, duket se gjigantët aktualë të teknologjisë, nuk kanë mësuar asgjë nga gabimet e së kaluarës. Një studim i fundit nga “Gender Shades”, zbuloi një defekt në sistemin e klasifikimit komercial të Microsoft, IBM dhe Face ++, duke zbuluar se gratë me lëkurë më të errët, ishin më shumë objekt i klasifikimeve të gabuara sesa pjesa tjetër e njerëzve. Platforma shumë e famshme e komunikimit “Zoom”, ra gjithashtu në grackën e diskriminimit: disa përdorues zezakë janë ankuar se duke aktivizuar sfondin virtual, fytyra e tyre nuk njihet dhe zhduket nga ekrani.
Burrë, grua apo…?
Ajo që i ç’akordon algoritmet e njohjes së fytyrës, jo të trajnuara siç duhet nga “padronët” njerëzorë, është njohja e njerëzve pa një seksualitet të përcaktuar, siç janë transeksualët (sidomos në periudhën e tranzicionit) ose individëve me identitete jo binare -pra ata që nuk korrespondojnë në mënyrë rigoroze dhe plotësisht me gjininë mashkullore ose femërore.
Një studim analizoi 4 shërbime komerciale të njohjes së fytyrës (Amazon Rekognition, Clarifai, IBM Watson Visual Recognition dhe Microsoft Azure), dhe llogariti saktësinë e rezultateve të klasifikimit gjinor të 2.450 imazheve.
Përfundimi është se megjithëse është e dobishme të nënvizohen gabimet më të zakonshme të programimit që vërehen tek sistemet e inteligjencës artificiale, veçanërisht përpjekja për të përmirësuar saktësinë e tyre dhe shmangur diskriminim gjinor dhe racor, është e rëndësishme të jemi gjithnjë të qartë për vështirësitë e panumërta të programimit të një makinerie për të njohur larminë, në krahasim me të menduarit standard të hartuesve të saj.
Burimi i lajmit: https://www.focus.it/tecnologia/digital-life/riconoscimento-facciale-pregiudizi
Përshtatur nga TIRANA TODAY