Programele de inteligență artificală dezvoltate pentru a evalua candidați pentru locuri în universități și credite bancare pot fi intrinsec rasiste și sexiste, potrivit experților tehnologici.
Cercetătorii sunt de părere că algoritmii de învățare automată, nici pe departe făcând lumea mai echitabilă, acum imită inegalitatea societății discriminând împotriva femeilor și minorităților etnice. […]
Citește mai mult: FaceApp renunță la filtru ‘rasist’ în urma indignării publice (Fotografii)
Sharkey a citat un exemplu de cercetare de la Universitatea din Boston în care o IA era programată să citească Google News. Când se întreba în cadrul unui joc de asociere de cuvinte, “Bărbatul este față de programator ceea ce femeie este față de x”, computerul a răspuns “casnică”. […]
Expertă în date spitalicești Maxine Mackintosh consideră că bazele de date “imperfecte” bazate pe informații istorice alterează reacțiile IA. Asta, potrivit dumneaei, s-a observat în Spitalul St. George din Londra unde pre-testările aplicațiilor pentru facultatea de medicină au revelat că IA a spitalului discrimina împotriva femeilor, precum și a minorităților etnice.
Citește mai mult: Inteligența artificială prezintă un risc mai vast decât Coreea de N. – Elon Musk
“Aceste date sunt de fapt o oglindă socială – reflectă prejudecățile și inegalitățile pe care le aven în societate”, a zis pentru BBC. “Dacă dorim să facem pași către schimbarea acestui fapt nu se pot folosi informații istorice.”
Chestiunea IA zbătându-se cu diversitatea rasială a fost evidențiată recent.
https://twitter.com/geraldmellor/status/712880710328139776
https://twitter.com/nke_ise/status/897756900753891328
Citiți vă rog și: