
Yapay zekânın sınırlarını zorlayan bir kriz, bu kez dünyanın en büyük danışmanlık firmalarından biri olan Deloitte’un kapısını çaldı. Avustralya hükümetine 440.000 dolarlık bir kamu politikası raporu sunan Deloitte, raporda kullanılan hayali kaynaklar ve uydurma referanslar nedeniyle ödemesinin bir kısmını iade etmek zorunda kaldı. Sebep: Raporun önemli bir bölümünde Deloitte yapay zeka ile yazılmıştı.

Rapor, iş arayanlara uygulanan cezai yaptırımların “katı” ve “izlenemez” olduğunu savunuyordu. Ancak bu tespitler, ne yazık ki üzerine inşa edildikleri temellerle sarsıldı. Çünkü raporun birçok kaynağı… hiç var olmuyordu.
Hükümete danışmanlık hizmeti veren Deloitte’un bu çalışmasında kullanılan Azure OpenAI GPT-4o modeli, bazı bölümlerde gerçek verilerin yerine “uydurulmuş” bilgiler üretmişti. Yapay zekâ araştırmalarında “hallucination” (halüsinasyon) olarak adlandırılan bu durum, dil modellerinin boşlukları hayali bilgilerle doldurmasından kaynaklanıyor.
Skandal, Avustralya Senatosu’na kadar taşındı. Senato üyelerinden biri konuyu şu cümleyle özetledi:
“Deloitte’un bir yapay zekâ sorunu yok, insan zekâsı sorunu var.”
Zira raporun yalnızca AI ile yazılmış olması değil, bu içeriklerin doğruluğunun denetlenmemiş olması esas problem olarak öne çıktı. Deloitte, hataları kabul etti, raporu revize etti ve ödemede kesinti yapmayı kabul etti. Ancak bu olay, büyük danışmanlık firmalarının yapay zekâyı nasıl ve ne kadar denetimsiz kullandığına dair önemli bir tartışmayı yeniden alevlendirdi.
Yapay zekânın içerik üretiminde kullanılması artık yaygın bir pratik. Ancak bu durum, özellikle kamu kurumlarına sunulan stratejik belgelerde “insan denetiminin” vazgeçilmezliğini bir kez daha gösterdi.
GPT-4o gibi büyük dil modelleri, metin üretiminde son derece yetenekli olsalar da; bu yetenek, doğruluğu garanti etmiyor. Bu olay, “AI asistan mı, yazar mı?” sorusunu tekrar gündeme taşıdı. İçeriği denetlemeden, sadece AI üretimine güvenmek; özellikle politika, hukuk, finans gibi alanlarda ciddi sonuçlar doğurabiliyor.

Deloitte’un geri adımı, özür dilemesi ve ödeme iadesi, profesyonel bir refleks olarak değerlendirilebilir. Ancak sorun, daha derinde.
Kurumsal danışmanlık sektöründe benzer uygulamaların yaygınlaşıp yaygınlaşmadığı bilinmiyor. Pek çok firma, AI üretimli içerikleri “yardımcı araç” olarak konumlarken, arka planda ne kadar doğruluk denetimi yapıldığı ise muamma.
Bu örnek, hem özel sektörün hem de kamu kurumlarının AI kullanımı konusunda etik sınırlar, doğruluk denetimi ve sorumluluk paylaşımı gibi başlıklarda çok daha net ilkelere ihtiyaç duyduğunu gösteriyor.






