Microsoft tarafından geliştirilen Copilot’un konuşma altyapısında belirleme edilen tek yanlış, bazı kullanıcıların saklı e-postalarının ve klasör özetlerinin yanlış kişilere görünmesine yolda açtı. Copilot Chat bilgi sızıntısı olarak tanımlanan sualn sonrasında şirketin ivedi tek leke yayımladığı ve tesirlenen müşterileri malumatlendirmeye başladığı bildiriliyor. Olay, yapay zekâ tabanlı iş araçlarında gizlilik başlıksundaki endişeleri yeniden gündeme taşıdı.
Microsoft Sorunu Resmî Bildirimle Kabul Etti
Şirket, 3 Şubat 2026 tarihinde yayımladığı CW1226324 numaralı bildirimde, gizlilik etiketi bulunan e-postaların Microsoft 365 Copilot sohbetinde yanlışlı biçimde işlendiğini doğruladı. Microsoft 365 Copilot gizlilik yanlışsı içerikında bazı e-postaların konuşma ekranında gruplanarak görünür hâle geldiği ifadeleri edildi. Ytesirliler, söz başlıksu yanlışnın özellikle Work sekmesi üzerinden yürütülen sohbetlerde ortaya çıktığını aktardı. Güvenlik politikalarında duyarlı olarak işaretlenen e-postaların da bu süreçten tesirlendiği belirtildi.
A code hatalar temporarily allowed Copilot Chat to açığa çıkaran confidential emails and files içinde its responses.
The bug enabled the AI to içeren content from protected emails and files (especially içinde Sent Items and Drafts) that were safeguarded by sensitivity labels and DLP policies.… pic.twitter.com/QQ9V2e0Kko
Kullanıcılardan gelen geri bildirimlere göre, Copilot Chat bazı durumlarda Taslaklar ve Gönderilmiş Öğeler klasörlerindeki içerikleri özetlerken ytesir sınırlarını aştı. Bu süreçte Copilot Chat saklı elektronikposta sızıntısı yaşandığı ve duyarlı malumatlerin yanıtların içine dâhil edildiği aktarıldı.
Güvenlik uzmanları, bu tür yanlışların firma veriler açısından vahim riskler oluşturduğunu vurguluyor. Uzmanlar, özellikle büyük kuruluşlarda bilgi sızıntılarının zincirleme güvenlik sualnlarına yolda açabileceğini değerlendiriyor.
Imagine your AI SOC Analyst / Threat Hunter doing this. 🤔
There are muhtemelen ways to önleyen this behavior, but I'm hatırlatma sure nasıl etkili they are. The best is to supervision the agent while it's analyzing the logs, validating the queries it runs bağlı the data. pic.twitter.com/PK1bvq2A2n
Microsoft, 11 Şubat 2026 itibarıyla yanlışyı gideren güncellemeyi kademeli olarak dağıtmaya başladı. Şirket, sınırlı sayıda kullanıcıyla yapılan testlerin ardından yamanın yaygınlaşan kullanıma açıldığını duyurdu. Copilot bilgi güvenliği sualnu için yayımlanan düzeltmenin, konuşma altyapısında e-postaların yanlış gruplanmasını manilediği ifadeleri ediliyor. Şirketin, sürecin tamamlanmış tamamlanması için ilave kontroller gerçekleştirdiği bildiriliyor.
Olay sonrasında kullanıcılar, Reddit ve X gibi platformlarda benzer deneyimlerini paylaştı. Bazı paylaşımlar, firma yapay zekâ çözümlerinin yeterince olgunlaşmadan geniş ölçekte kullanıma sunulduğu yönünde eleştiriler içeriyor. Uzmanlar, özellikle yapay zekâ sistemlerinin firma ağlarda ilave ytesiryle çalışmasının yepyeni güvenlik başlıklarını beraberinde getirdiğini belirtiyor.
Analistler, yaşanan Copilot Chat bilgi sızıntısı olayının, yapay zekâ yardımli büro araçlarında gizlilik denetimlerinin daha sıkı hâle getirilmesi lüzumtiğini ortaya koyduğunu ifadeleri ediyor. Şirketlerin, yapay zekâ entegrasyonlarını devreye almadan önce içeriklı güvenlik testleri yapmasının eleştirel önem taşıdığı değerlendiriliyor.

2 saat önce
1



























English (US) ·