Yapay Zekâ Zeki ama Önyargılı | BCA Times




  ÖNE ÇIKAN HABERLER

Yapay Zekâ Zeki ama Önyargılı
Eklenme Tarihi: 25 Eylül 2017, Pazartesi 23:56 - Son Güncelleme: 25 Eylül 2017 Pazartesi, 23:57
Font1 Font2 Font3 Font4



Yapay Zekâ Zeki ama Önyargılı
Çözüm, yapay zekânın hangi amaç için yaratıldığını, hangi önyargılarla hareket ettiğini ortaya net bir biçimde koymaktan geçiyor ki, insanlar da makinelerin doğrularıyla ilgili yargılara varabilsin.

Geçen yıl Microsoft'un geliÅŸtirdiÄŸi yapay zekâ Tay'in akıbetini hatırlarsınız… 24 saat içinde kendisiyle iletiÅŸim kuran Twitter kullanıcılarının diline nasıl uyum saÄŸlayıp ırkçı nükteler patlatmıştı. Ne yazık ki, yeni bir araÅŸtırma daha yapay zekânın, tıpkı insanlar gibi, dilde örtük olan önyargıları cımbızlayıp kullandığını gösteriyor.

 

Metinler arasındaki iliÅŸkileri inceleyen GloVe (Global Vectors for Word Representation) adlı sistem, insana dair tüm önyargıların, yapay sistemlerde de ortaya çıktığını keÅŸfetti. Princeton Üniversitesi bilgisayar bilimleri dalında doktora yapan Aylin Çalışkan, ''Verileri, Wikipedia ya da haber metinleri gibi tarafsız bir dile sahip olduÄŸunu varsaydığımız kaynaklardan edinen yapay zekâ, tamamen insanların temel önyargılarını yansıtıyor'' dedi.

 

AraÅŸtırmada, Örtük Ä°çerik ÇaÄŸrışım Testi adı verilen bir araç kullanıldı. “Nergis” sözcüÄŸünü örnek alalım. Ä°nsanlardan bir tuÅŸa basarak, bu sözcüÄŸü ''acı'' ya da ''güzellik'' gibi hoÅŸ ya da nahoÅŸ kavramlardan biriyle iliÅŸkilendirmeleri istendi. BeklendiÄŸi gibi, çiçekler olumlu kavramlarla, silahlar olumsuzlarla eÅŸleÅŸti. Aynı yöntem, insanların sosyal ya da demografik gruplara dair algılarını ortaya çıkarmak için de kullanıldı ve tahmin edin bakalım, silahlar en çok hangi ırkla iliÅŸkilendirildi? Siyahlarla.

 

Veriler araÅŸtırmacıları ÅŸu tartışmaya sürüklüyor: Acaba insanlar, son derece kiÅŸisel nedenlerle farkında olmadan içselleÅŸtirdikleri önyargılarıyla mı hareket ediyor; yoksa bunları dil dolayısıyla, dil üzerinden mi sahipleniveriyor? Bir baÅŸka deyiÅŸle, bunlar öÄŸrenilmiÅŸ önyargılar olabilir mi?

 

Çalışkan ve ekibi, GloVe'un sözcükler arasındaki iliÅŸkilerin gücüne dair saÄŸladığı veriyi karşılaÅŸtıracak bir test daha geliÅŸtirdi: Saklı Sözcük Ä°liÅŸkilendirme Testi. Her eÅŸleÅŸme, Örtük Ä°çerik ÇaÄŸrışım Testi'nin sonuçlarıyla paralel çıktı.
Daha da kötüsü…
Avro-Amerikan kökenli isimlerin Afro-Amerikan olanlara göre daha hoÅŸ çaÄŸrışımlar yaptı.

  • Genç insanların isimleri hoÅŸ, yaÅŸlılarınki nahoÅŸtu!
  • Erkek isimleri, kariyerle ilgili sözcüklerle, kadın isimleriyse domestik kavramlarla daha hızlı iliÅŸkilendirildi.
  • Bilim ve matematik erkeklerle, sanatsa kadınlarla ilgili olma eÄŸilimindeydi.

 

Ä°ÅŸin ilginç yanı, tahminler ABD Ä°ÅŸgücü Ä°statistikleri Bürosu'nun verileriyle % 90 uyumluydu. Yani bu ÅŸu demek: Ä°nsan dili üzerinden öÄŸrenen programlar, dünyamıza ve kültürümüze dair çok isabetli beyanlarda bulunuyor. Ancak yapay zekânın, insanların zorlanmadan kavradığı baÄŸlamları anlamada baÅŸarısız olduÄŸu görülüyor. ÖrneÄŸin Martin Luther King Jr.'ın sivil haklar mücadelesinde tutuklanmasıyla ilgili bir makale, Afro-Amerikalılara dair olumsuz çaÄŸrışımları beraberinde getirirken, insanlar bunun haklı bir direniÅŸ sergileyen bir Amerikan kahramanının hikâyesi olduÄŸunu biliyorlar. Oysa bilgisayar için, Martin Luther King = siyah = tutuklu.

 

Yapay zekânın, hatasızlığa ulaÅŸması en büyük çabamız diyen Çalışkan, önyargıları gidermenin bu sorunu çözmeyeceÄŸini savunuyor.

 

Çözüm, yapay zekânın hangi amaç için yaratıldığını, hangi önyargılarla hareket ettiÄŸini ortaya net bir biçimde koymaktan geçiyor ki, insanlar da makinelerin doÄŸrularıyla ilgili yargılara varabilsin.

 

Çalışkan haklı olarak ÅŸu soruyu yöneltiyor: ''Onlara araÅŸtırma yapmak için mi ihtiyaç duyuyoruz yoksa karar vermek için mi?  Ya da baÅŸka varoluÅŸ nedenleri mi var? Ä°nsanlar önyargılara sahip olsalar bile iyi kötü doÄŸru ile yanlışın farkını biliyorlar ama ne yazık kiZ makinelerin kendilerine dair farkındalıkları yok.''


Bu haberlerde ilginizi çekebilir!