Teknoloji

Meta'nın Metinden Görüntü Oluşturma Aracı Irkçılık Yapıyor

Meta'nın yapay zekâ destekli görüntü oluşturma aracının kısmen ırkçılık yaptığı tespit edildi. Yapay zekâ, Asyalı insanları, beyazlarla bir araya getiremiyor. Hindistan ise tamamen yok sayılıyor.

Meta'nın Metinden Görüntü Oluşturma Aracı Irkçılık Yapıyor
04-04-2024 10:33

Meta'nın ÖZETİ| yapay zekâ destekli görüntü oluşturma aracı ile ilgili dikkat çeken bir gelişme yaşandı. The Verge'den Mia Sato, bu yapay zekâ destekli aracı denemeye çalışırken garip bir durum fark etti. Meta'nın yapay zekâsı, Asyalı bir insanın batılı bir beyaz insanla yan yana hayal edemiyordu

Mia Sato, beyaz bir kadın ile bir Asyalı adamın görüntüsünü oluşturmak istedi ve bunu yapay zekâ aracına komut olarak iletti. Ancak elde edilen sonuçlar çok garipti. Çünkü yapay zekâ, Asyalı adamı bir türlü batılı bir beyaz insanla bir araya getiremiyordu. Elde edilen sonuçlarda Asyalı adam, daima Asyalı kadınlarla yan yana getirilmişti. Yapay zekânın neden böyle davrandığı bilinmezken, Meta'dan konuyla ilgili açıklama da gelmedi.

Tüm kombinasyonlar denendi

meta yapay zeka görüntü oluşturucu

Yukarıdaki örneklerde de görebileceğiniz üzere Mia Sato, amacına ulaşabilmek için farklı farklı kombinasyonlar denedi. "Asyalı kadın ve onun beyaz kocası" ve "Asyalı adam ve Kafkasyalı eşi" gibi komutlar giren meslektaşımız, bir türlü istediği sonuca ulaşamadı. Elde edilen sonuçlar, genelde Asyalılar özelinde oluyordu. Çok sayıda deneme yapan The Verge çalışanı, en doğru sonucu "Güney Asyalı" vurgusuyla alabildiğini söylüyor.

Oluşturulan görüntülerdeki bir diğer dikkat çekici husus da Hindistan'la ilgili. Dünyanın en kalabalık ülkelerinin başında gelen Hindistan, Meta'nın yapay zekâsı tarafından tamamen yok sayılıyor. Yapılan denemelerde Hintli'ye benzer koyu renkli bir görüntü oluşturulamadı. Bakalım Meta, bu konuyla ilgili nasıl bir değerlendirme yapacak.

Teknik olarak benzer bir durum, geçmişte Google Gemini cephesinde yaşanmıştı:


Editor : Şerif SENCER
SİZİN DÜŞÜNCELERİNİZ?
TÜRKİYE GÜNDEMİ
BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER