Apple AI Belgesi: İşte Siri Sonunda İçeriği Nasıl Anlayabilir?

xTasarim

Global Mod
Global Mod
Apple'a ilgi duyanlar ve uzmanlar dünyası, Tim Cook'un Haziran başında yapılacak WWDC geliştirici konferansında yapay zeka konusundaki büyük vaadini nasıl ve ne ölçüde yerine getireceğini sabırsızlıkla bekliyor. Apple'ın araştırma departmanından gelen yeni bir belge, iPhone üreticisinin çabalarının hangi yöne gittiğine dair daha fazla ipucu sağlıyor. Apple çalışanları, “ReALM: Dil Modellemesi Olarak Referans Devrimi” başlığı altında, mevcut ekran görünümüne ve aynı zamanda devam eden konuşmalara ilişkin kullanıcı girdilerini anlamayı amaçlayan bir yapay zeka geliştirdi.

Duyuru



Sunulan örnek senaryolardan birinde, sesli asistan aracılığıyla cihazdan eczanelerin listesini görüntülemesi isteniyor. Bir sonraki adımda kullanıcı, ekranda konumu belirterek “XY Caddesi'ndekini arayın” diyerek sesli arama yapabilir, ekranın alt kısmındaki numaraya başvurabilir veya yalnızca “Bu Numarayı Ara” diyebilir. ekranda yalnızca bir tanesi görüntülendiğinde. Görüntülenen bilginin karmaşıklığına bağlı olarak bu, neredeyse tam bir doğrulukla işe yaradı.

Görünüşe göre Apple cihazın yapay zekasına güveniyor


Referans kararının olmayışı, yıllardır günümüzün sesli asistanlarına yöneltilen ana eleştirilerden biri olmuştur. Kullanıcıların her girişte bilgisayardan istediklerini tam olarak söylemesi veya daha önce söylediklerini tekrarlaması gerekir. Ancak asistan referansları anlayabilseydi, iki kişi arasındaki iletişimde olduğu gibi daha doğal bir yaklaşım mümkün olurdu.

ReALM'in GPT-3.5 ve GPT-4'e karşı testleri, Apple'ın yaklaşımının GPT-3.5'ten önemli ölçüde daha doğru olduğu ve GPT-4 ile karşılaştırıldığında daha az bilgi işlem gücü gerektirdiği sonucuna vardı. Daha fazla parametreye sahip daha büyük modeller, GPT-4'ten önemli ölçüde daha iyi performans gösterecektir. 15 sayfalık belge aynı zamanda Apple'ın yaklaşımının doğrudan akıllı telefonda kullanılabilecek daha küçük, görev odaklı bir dil modelini hedeflediğini de öne sürüyor. Bunun veri koruma ve verimlilik nedenleriyle iPhone'a açıkça değinilmeden yapılabileceği söyleniyor. Bulutla iletişimden kaçınmak gecikmeyi de azaltacaktır.

Daha karmaşık görevlerden bunalmış


Ancak önceki araştırmalar da sınırlamalarını göstermiştir. Karmaşık kullanıcı istekleri, konumun daha da incelikli bir şekilde anlaşılmasını gerektirir. Çalışma, “Ekranı bir ızgaraya bölmek ve bu göreceli mekansal konumları metne kodlamak gibi daha karmaşık yaklaşımları keşfetmenin, zorlu olsa da, gelecekteki araştırmalar için umut verici bir yol olduğuna inanıyoruz” diyor.

Son aylarda Apple'ın yapay zeka projeleri üzerinde ne kadar yoğun bir şekilde çalıştığını çeşitli yayınlar ortaya koyuyor. Mesela MM1 isimli bir modelin geliştirildiği öğrenildi. Daha önce Apple'ın geliştirdiği yapay zeka tabanlı animasyon aracı Keyframer ile ilgili bir yazı yayınlanmıştı. Apple'ın ilk adım olarak Google'ın Gemini yapay zekasını kullanmayı planladığı bildiriliyor. Haziran ayında WWDC'de tanıtılması beklenen iOS 18'de de durum böyle olabilir.


(mki)



Haberin Sonu
 
Üst