Andrey Doronichev geçen yıl sosyal medyada Ukrayna Devlet Başkanı’nın Rusya’ya teslim olduğunu gösteren bir video görünce paniğe kapılmıştı.
Videonun sentetik olarak oluşturulmuş bir deepfake olduğu kısa sürede çürütüldü, ancak Bay Doronichev için bu endişe verici bir alametti. Bu yıl şirketler, yol açabileceği tahribatlara rağmen yapay zeka teknolojisini geliştirmek ve piyasaya sürmek için rekabet etmeye başladıkça korkuları gerçeğe daha da yaklaştı.
Üretken yapay zeka artık herkesin kullanımına açık ve insanlar tarafından tasarlanıp çekilmiş gibi görünen metin, ses, görüntü ve videolarla insanları kandırma becerisi giderek artıyor. Toplumsal saflık riski, dezenformasyon, iş kaybı, ayrımcılık, mahremiyet ve geniş distopya ile ilgili endişeleri tetikledi.
Bay Doronikev gibi girişimciler için bu aynı zamanda bir iş fırsatı haline geldi. Artık bir düzineden fazla şirket, bir şeyin yapay zeka ile yapılıp yapılmadığını tespit etmek için Sensity AI (derin sahte algılama), Fictitious.AI (intihal tespiti) ve Originality.AI (ayrıca intihal) gibi isimlerle araçlar sunuyor.
Rusya vatandaşı olan Bay Doronichev, sentetik veya sahte materyallerin tanımlanmasına yardımcı olmak için San Francisco’da Optic adında bir şirket kurdu; kendi deyimiyle “dijital içerik için bir havaalanı röntgen makinesi”.
Mart ayında, kullanıcıların görsellerin gerçek fotoğraflardan mı yoksa yapay zekadan mı yapıldığını kontrol edebilecekleri bir web sitesi açıldı. Video ve sesi doğrulamak için diğer hizmetler üzerinde çalışıyor.
Reface adlı yüz değiştirme uygulamasının yatırımcısı olan Bay Doronichev, “İçerik özgünlüğü bir bütün olarak toplum için büyük bir sorun haline gelecek” dedi. “Ucuz sahtecilik çağına giriyoruz.” Sahte içerik üretmenin maliyeti çok yüksek olmadığı için bunun geniş ölçekte yapılabileceğini söyledi.
Pazar araştırma firması Grand View Research’e göre, genel üretken yapay zeka pazarının 2030 yılına kadar 109 milyar doları aşması ve o zamana kadar yılda ortalama yüzde 35,6 büyümesi bekleniyor. Teknolojiyi tespit etmeye odaklanan işletmeler sektörün büyüyen bir parçası.
Princeton Üniversitesi’nden bir öğrenci tarafından oluşturulduktan aylar sonra GPTZero, bir milyondan fazla kişinin bu programı bilgisayar tarafından oluşturulan metinleri oluşturmak için kullandığını iddia ediyor. Reality Defender, bu kış start-up hızlandırıcı Y Combinator tarafından finanse edilecek 17.000 başvuru arasından seçilen 414 şirketten biriydi.
CopyLeaks, öğrencilerin çalışmalarında yapay zekayı tespit etmek amacıyla okullara ve üniversitelere yönelik intihal karşıtı hizmetlerini genişletmek için geçen yıl 7,75 milyon dolar topladı. Kurucuları İngiliz Kraliyet Donanması ve Kuzey Atlantik Antlaşması Örgütü için siber güvenlik ve bilgi savaşı konusunda uzmanlaşmış olan Sentinel, demokrasilerin derin sahtekarlıklara ve diğer kötü niyetli yazılımlara karşı korunmasına yardımcı olmak amacıyla kısmen Skype’ın kurucu mühendislerinden birinin desteklediği 2020 yılında 1,5 milyon dolarlık bir başlangıç turunu tamamladı. sentetik medya.
Büyük teknoloji şirketleri de işin içinde: Intel’in FakeCatcher’ı, kısmen insan yüzlerindeki kan akışının ince işaretleri için pikselleri analiz ederek derin sahte videoları yüzde 96 doğrulukla tanımlayabildiğini iddia ediyor.
Federal hükümet içinde Savunma İleri Araştırma Projeleri Ajansı, deepfake’leri otomatik olarak tespit edecek ve kötü amaçlı olup olmadıklarını belirleyecek algoritmalar geliştiren bir program olan Semantic Forensics’i çalıştırmak için bu yıl yaklaşık 30 milyon dolar harcamayı planlıyor.
Geçen yılın sonlarında ChatGPT aracını piyasaya sürdüğünde AI patlamasını hızlandıran OpenAI bile tespit hizmetleri üzerinde çalışıyor. Merkezi San Francisco’da bulunan şirket, Ocak ayında, insan tarafından oluşturulan metin ile yapay zeka tarafından yazılan metin arasında ayrım yapılmasına yardımcı olacak ücretsiz bir aracı piyasaya sürdü.
OpenAI, aracın geçmiş versiyonlara göre bir gelişme olmasına rağmen hâlâ “tamamen güvenilir olmadığını” vurguladı. Araç, yapay olarak oluşturulan metnin yüzde 26’sını doğru bir şekilde tanımladı, ancak insanlardan gelen metnin yüzde 9’unu hatalı bir şekilde bilgisayar tarafından oluşturuldu olarak işaretledi.
OpenAI aracı, tespit programlarındaki yaygın kusurlarla doludur: İngilizce olmayan kısa metinler ve yazılarla mücadele eder. Eğitim ortamlarında TurnItIn gibi intihal tespit araçları, öğrenciler tarafından yazılan makaleleri sohbet robotları tarafından oluşturulmuş olarak yanlış bir şekilde sınıflandırmakla suçlanıyor.
Tespit araçları, doğası gereği tespit etmeye çalıştıkları üretken teknolojinin gerisinde kalıyor. Bir savunma sistemi, Google Bard veya Midjourney gibi yeni bir sohbet robotunun veya görüntü oluşturucunun çalışmasını tanıyabildiğinde, geliştiriciler zaten bu savunmayı atlatabilecek yeni bir yineleme ile geliyorlar. Bu durum, bir silahlanma yarışı ya da birinin diğerini tekrar tekrar doğurduğu bir virüs-antivirüs ilişkisi olarak tanımlanıyor.
Üniversitede bilgisayar bilimi profesörü Hany Farid, “Midjourney, Midjourney 5’i yayınladığında, başlangıç silahım patlıyor ve ben de onlara yetişmek için çalışmaya başlıyorum – ve ben bunu yaparken onlar da Midjourney 6 üzerinde çalışıyorlar” dedi. Kaliforniya, Berkeley’den, dijital adli tıp alanında uzmanlaşan ve aynı zamanda yapay zeka tespit endüstrisinde de yer alan bir kişi. “Bu, ben dedektör üzerinde çalışırken birisinin daha iyi bir fare kapanı, daha iyi bir sentezleyici geliştirdiği, doğası gereği çekişmeli bir oyun.”
New York Üniversitesi’nde siyaset profesörü ve Sosyal Medya ve Politika Merkezi’nin eş direktörü Joshua Tucker, sürekli yakalamaya rağmen birçok şirketin okullardan ve eğitimcilerden yapay zeka tespitine yönelik talep gördüğünü söyledi. Benzer bir pazarın 2024 seçimleri öncesinde ortaya çıkıp çıkmayacağını sorguladı.
“Bu tür şeylerin ne zaman hedef alındığını bilebilmeleri için siyasi adayların korunmasına yardımcı olmak üzere bu şirketlerin bir tür paralel kanadının geliştiğini görecek miyiz?” dedi.
Uzmanlar, sentetik olarak oluşturulan videonun hala oldukça hantal ve tanımlanması kolay olduğunu ancak ses klonlama ve görüntü işlemenin oldukça gelişmiş olduğunu söyledi. Gerçeği sahteden ayırmak, ters görsel arama ve IP adresi takibi gibi dijital adli tıp taktiklerini gerektirecektir.
Mevcut tespit programları, “görüntülerin ortalıkta dolaştığı, değiştirildiği, kırpıldığı, küçültüldüğü, kodu dönüştürüldüğü ve açıklamaların eklendiği ve Tanrı bilir başlarına başka nelerin geldiği vahşi doğaya girmekten çok farklı” örneklerle test ediliyor. Bay Farid dedi.
“İçeriğin aklanması bunu zor bir iş haline getiriyor” diye ekledi.
1.000 şirket ve kuruluştan oluşan bir konsorsiyum olan İçerik Orijinalliği Girişimi, üretken teknolojiyi en başından itibaren görünür hale getirmeye çalışan bir gruptur. (Adobe tarafından yönetiliyor, The New York Times gibi üyeler ve Stability AI gibi yapay zeka oyuncuları var) Grup, bir görselin veya videonun daha sonraki yaşam döngüsünün kökenini bir araya getirmek yerine, uygulanacak standartları oluşturmaya çalışıyor. Yaratılış sırasında dijital çalışmaya ilişkin izlenebilir kimlik bilgileri.
Adobe geçen hafta, üretken teknolojisi Firefly’ın Google Bard’a entegre edileceğini ve burada ürettiği içeriğe, görüntünün yapıldığı tarih ve onu oluşturmak için kullanılan dijital araçlar da dahil olmak üzere “beslenme etiketleri” ekleyeceğini söyledi.
Tüketici kimliğinin doğrulanmasına yardımcı olan Persona şirketinin güven ve emniyet mimarı Jeff Sakasegawa, yapay zekanın ortaya çıkardığı zorlukların daha yeni başladığını söyledi.
“Dalga ivme kazanıyor” dedi. “Kıyıya doğru gidiyor. Henüz çökmediğini düşünüyorum.”