07 Mayıs 2024 Salı
ABD’deki New York Üniversitesi’nden araştırmacılar, Sam adlı bir bebeğin gördüklerini kullanarak yapay zekayı eğitti. Sam’e altı aylıkken bir kafa kamerası bağlandı ve bu cihaz iki yaşına kadar kullanıldı. Bu süre boyunca kaydedilen 250.000 kelime ve bu kelimelere karşılık gelen görseller, yapay zekayı eğitmek için kullanıldı.
Yapay zeka, çevreyi gözlemleyerek, yakındaki insanları dinleyerek ve görülen ile duyulan arasındaki bağlantıları birleştirerek bilgisini geliştirdi. Arştırmacılar, insanların sözcüklerle görselleri nasıl ilişkilendirdiğini keşfetti. Örneğin, “top” sözcüğü yuvarlak, sıçrayan bir nesneyle ilişkilendirildi. Sam’in kamera kayıtları, günlük aktivitelerini kaydetti ve bu da 60 saatlik veriyi oluşturdu.
Araştırmacılar, yapay zeka modelinin görüntüleri ve yazılı dili tercüme etmek için bir görüntü ve metin kodlayıcı kullandı. Model, birçok kelime ve görseli doğru bir şekilde eşleştirebildi. Yapay zeka modeli, öğrendiklerini yüzde 61,6 doğruluk oranıyla genelleyebildi ve görünmeyen örnekleri yüzde 35 oranında doğru bir şekilde tanımlayabildi.
NYU Veri Bilimi Merkezi’nde araştırma bilimcisi olan Wai Keen Vong, “İlk kez, tek bir çocuktan gelen eğitilmiş bir sinir ağının, sözcükleri görsel karşılıklarıyla ilişkilendirmeyi öğretebileceğini gösterdik.” dedi. Bu bulgular, bebeğin doğal deneyimlerini kullanarak yapay zekanın dil ve kavram edinimini şekillendirebileceğini göstermektedir.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.