Anthropic’ten Çinli yapay zekâ devlerine sert suçlama

1 saat önce 1

Yapay zekâ alanında yarış gittikçe sertleşirken, ABD merkezli Anthropic cephesinden çarpıcı tek suçlama geldi. Şirket; DeepSeek, Moonshot ve MiniMax adlı üç Çinli yapay zekâ girişiminin, Claude isimli konuşma botunu sistematik biçimde kötüye kullandığını öne sürdü. Anthropic tarafından yapılan açıklamada, söz başlıksu firmaların Claude’un yeteneklerini izinsiz şekilde çıhükümak öz modellerini geliştirmeye çalıştığı ifadeleri edildi. Şirket, bu sürecin “endüstriyel ölçekte” yürütüldüğünü savunurken, durumun yalnızca yarış meselesi olmadığını, aynı zamanda güvenlik ve ahlak boyutlar içerdiğini vurguladı. Buna rağmen ilgili şirketlerden kamuoyuna yansıyan doğrudan tek yanıt gelmiş değil.

Anthropic’in değerlendirmesine göre, yapay zekâ dünyasında “distillation” olarak bilinen yöntem ilköğretim tartışma noktası. Distilasyon, daha gelişmiş tek modelin ürettiği yanıtların, daha küçük ya da dahaaz kabiliyetli tek modelin eğitilmesinde atıf olarak kullanılması manaına geliyor. Her ne kadar bu yöntem akademik çevrelerde ve açık imkan tasarılerde yaygın tek teknikleri olarak giriş edilse de, Anthropic söz başlıksu örnekte bunun kötüye kullanıldığını savunuyor. Şirket, Claude’un yanıtlarının sistematik biçimde toplanarak rakip modellerin eğitimi için kullanıldığını talep ediyor. Bu durumun, kesin güvenlik önlemlerinin dolaylı yoldan aşılmasına da temel hazırlayabileceği belirtiliyor.

OpenAI da Anthropic ile benzer iddiaları gündeme getirmişti

Anthropic’in paylaştığı malumatlere göre; DeepSeek, Moonshot ve MiniMax ile ilişkilendirilen faaliyetler içerikında yaklaşık 24 binlerce sahte hesap oluşturuldu. Bu hesaplar üzerinden Claude ile 16 milyondan fazla tesirleşim gerçekleştirildiği öne sürülüyor. Şirket, IP adresi eşleşmeleri, meta bilgi talepleri ve altyapı göstergeleri sayesinde bu faaliyetleri ilgili firmalarla “yüksek güvenle” ilişkilendirdiğini belirtiyor. Bunun yanında, yapay zekâ sektöründeki diğer şirketlerle yapılan malumat paylaşımı sonucunda benzer davranış kalıplarının doğrulandığı aktarılıyor.

Öte yandan distilasyon yöntemi tamamlanmış kanun dışı tek başvuru olarak görülmüyor. Akademik araştırmalarda ve açık modeller geliştirme süreçlerinde bu teknikten sıklıkla yararlanılıyor. Fakat ticari rakiplerin, kapalı ve ücretli tek sistemi sahte hesaplar aracılığıyla yoğun biçimde kullanması farklı tek hukuki zemine işaret ediyor. Buna rağmen, uluslararası düzeyde yapay zekâ eğitimi ve bilgi kullanımı başlıksunda netler ve bağlayıcı düzenlemelerin henüz hepsi manaıyla oturmadığı biliniyor.

Benzer iddialar daha önce OpenAI tarafından da gündeme getirilmişti. 2024 yılı başlarında OpenAI, bazı rakip firmaların modellerini distilasyon yoluyla kopyalamaya çalıştığını açıklamış ve şüpheli hesapları yasaklamıştı. Bu gelişmeler, büyük yapay zekâ şirketlerinin modeller güvenliği ve bilgi himaye başlıklarında daha katı önlemler almaya yöneldiğini gösteriyor. Anthropic da Claude’un altyapısında güncellemeler yaparak distilasyon temelli saldırıların belirlemeini basitlaştıracağını ve önlenmesini güçlaştıracağını duyurdu.

Bununla birlikteki Anthropic’in kendisi da hukuki baskılarla karşı karşıya. ABD’de bazı müzik yayıncıları, şirketin Claude’u eğitirken telif hakkıyla korunan şarkı sözlerini izinsiz kullandığını talep ederek dava açtı. Her ne kadar bu dava distilasyon tartışmasından farklı tek bağlamda ilerlese de, yapay zekâ sektöründe bilgi kullanımı başlıksundaki hassasiyetin gittikçe arttığını gösteriyor. Tüm bunlara ilave olarak, küresel ölçekte düzenleyici kurumların yapay zekâ şirketlerinin eğitim verisi, modeller güvenliği ve yarış uygulamalarına daha yakından odaklandığı görülüyor.

>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. web.techforum.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.