Njohja e fytyrës është gjithnjë e më e pranishme në jetën tonë.
Shumë prej nesh e përdorin atë disa herë në ditë për të zhbllokuar ekranin e smartfonit, ndërsa kompanitë e mëdha e përdorin atë për të identifikuar njerëz të veçantë në mes të turmave të mëdha, për të analizuar emocionet e tyre dhe për të identifikuar llojin e tyre, shkruan focus.it.
Pavarësisht përparimeve në vitet e fundit, algoritmet e mësimit të makinerive nuk janë ende të sakta dhe, siç shpjegon një artikull i botuar në versionin spanjoll të “The Conversation”.
Sipas studimit ata për shembull mund të diskriminojnë sipas gjinisë dhe racës ose të kenë vështirësi në njohjen e transeksualëve.
Për këtë arsye është thelbësore të trajnohen makinat me të dhëna sa më përfaqësuese të çdo nuance njerëzore.
Kur kjo nuk ndodh dhe kategori të caktuara njerëzish përjashtohen, IA kthen rezultate të pasakta, duke pasqyruar pasaktësitë që kemi kryer.
Pavarësisht shembujve të shquar të Kodak dhe Polaroid, duket se gjigantët aktualë të teknologjisë nuk kanë mësuar asgjë nga gabimet e së kaluarës.
Një studim i fundit nga “Gender Shades” zbuloi një të metë në sistemin e klasifikimit komercial të Microsoft, IBM dhe Face ++, duke gjetur se gratë me lëkurë më të errët ato ishin të prirura për më të keqklasifikuara sesa pjesa tjetër e njerëzve.
Platforma jashtëzakonisht e popullarizuar e komunikimit Zoom ra gjithashtu në grackën e diskriminimit.
Disa përdorues me ngjyrë u ankuan se, duke aktivizuar sfondin virtual, fytyra e tyre nuk u njoh dhe u zhduk nga ekrani./TV Malisheva