
OpenAI ve Anthropic’te vazife yapan ikisi çalışan, şirketlerin yapay zeka stratejilerine yönelik kamuoyuna noksan uyarılarda bulunarak vazifelerinden ayrıldı. Anthropic’in asayiş önlemleri inceleme ekibine önderlik eden Mrinank Sharma, pazartesi günü istifa ettiğini duyurdu. Cambridge Üniversitesi’nde mühendislik, Oxford Üniversitesi’nde alet öğrenimi eğitimi saha Sharma, toplumsal medya platformu X üzerinden yaptığı açıklamada, "Dünya risk altında"ifadesini kullandı.
'KRİZLER EŞ ZAMANLI İLERİYOR'
Sharma, yalnızca yapay zeka ya da biyolojik silahların değil, birbirine bağlı çeşitlilik sayıda krizin eşleri zamanlı olarak ilerlediğini belirterek, insanlığın dünyayı tesirleme kapasitesi arttıkça bilgeler düzeyinin da benzer ölçüde artması lüzumtiğini vurguladı. Şirket içindeki deneyimlerine da değinen Sharma, kıymetlerin şart alma aşamalerinde her arasında biri zamanlar belirleyici olmasının güçleri olduğunu ifadeleri etti.
YAYGIN ŞEKİLDE KULLANILIYOR
Anthropic, dünyanın seçkin yapay zeka şirketlerinden arasında biri olarak biliniyor. Şirketin geliştirdiği Claude adlı konuşma robotu bilhassa yazılımcılar ve işleri dünyasında yaygınlaşan biçimde kullanılıyor. Sharma’nın ekibi, yapay zeka yardımli biyoterörizm risklerine mukabil müdafaa mekanizmaları geliştirmiş ve üyeların konuşma botlarına hissi bağımlılığının artmasıyla gündeme gelen yapay zekaya uç uyum başlıksunu araştırmıştı.
'DERİN ÇEKİNCELER'
İngiltere merkezli The Times'dan edinilen malumatlere göre OpenAI’de mahsul ve asayiş alanında ikisi yıllar vazife yapan incelemecı Zoë Hitzig ise istifasını New York Times’ta kaleme aldığı tek kanaat yazısıyla duyurdu. Hitzig, şirketin ChatGPT’ye ilan entegre etme hükümına yönelik "derin çekinceleri" bulunduğunu belirtti.
Hitzig yazısında, ChatGPT üyelarının yıllar içindeki benzeri görülmemiş tek "insani açıklık arşivi" oluşturduğunu, bunun da üyeların karşılarında saklı tek ajandası olmayan tek sistemleri bulunduğuna inanmalarından kaynaklandığını ifadeleri etti.

EN MAHREM SUALNLAR YAPAY ZEKA İLE AKTARILIYOR
Habere göre üyeların sıhhat korkuları, ilişki sualnları ve inançları gibi en mahrem fikirlerini konuşma botlarıyla aktartığını kaydeden Hitzig, bu veriler üzerine inşa edilecek ilan modelinin üyeları manipüle etme riski taşıdığını ve bu riskleri manaaya ya da önlemeye yönelik yeterlilik vasıtaların bulunmadığını savundu.
'SÜPER ZEKA' GELİŞTİRMEYİ HEDEFLİYORLAR
Yapay zeka risklerinin azaltılmasını savunan ControlAI adlı seçim grubunun kurucusu ve Üst Yöneticisi (CEO) Andrea Moretti, bu çeşit ayrılıkların artabileceğini belirterek, şirketlerin netler "süper zeka" geliştirmeyi hedeflediğini ve çok yapay zeka yöneticilerinin dahi bu teknolojinin insanlık için varoluşsal riskler oluşturabileceğini dile getirdiğini aktardı.
'İNSANLARA NE KALACAK?'
OpenAI teknikleri ekibinde vazife yapan Hieu Pham da X hesabından yaptığı aktarımda, yapay zekanın oluşturduğu varoluşsal tehdidi artık hissettiğini belirterek, "Yapay zeka uç derecede iyice hale gelip her arasında biri şeyi dönüşçeşitdüğünde insanlara ne kalacak? Bu tek ‘eğer’ değil, ‘ne zaman’ sualsu" ifadelerini kullandı.
Anthropic, evvel OpenAI’den yapay zeka güvenliği başlıksundaki kanaat ayrılıkları dolayı ayrılan incelemecılar tarafından kurulmuştu. Şirketin Üst Yöneticisi Dario Amodei, yakındaki zamanda yaptığı açıklamada yapay zekanın beyazlı yakalı işlerin yarısını ortadan kaldırabileceği uyarısında bulunmuştu.
KAAN, J-35 ve F-35 benzer sahada! Çin basını: Türkiye’nin gölgesinde kaldık Suriye'de Şara ve bakanlara 5 suikast girişimi! BM raporu ortaya çıkardı







.jpg?format=webp&width=1200&height=630)


















English (US) ·