Derinlik Arayışı (DeepSeek): Sorumlu İnovasyon ve Risk Yönetimi'nin Çanları

robot
Abstract generation in progress

Kaynak: Cointelegraph Orijinal Metin: "Derin Araştırma (DeepSeek): Sorumlu Yenilik ve Risk Yönetimi İçin Bir Uyarı"

Görüş yazar: Dr. Merav Ozair

20 Ocak'ta piyasaya sürülmesinden bu yana, DeepSeek R1, kullanıcılar ve dünya çapındaki teknoloji mogulları, hükümetler ve politika yapıcıların geniş dikkatini çekti - övgülerden şüphelere, benimsemelerden yasaklamalara, yeniliğin ihtişamından ölçülemeyen gizlilik ve güvenlik açıklarına kadar.

Kim haklı? Kısa cevap: Herkes haklı, herkes de haksız.

Bu, "Sputnik anı" değil.

DeepSeek, OpenAI'nin GTPo1'i ile karşılaştırılabilecek bir büyük dil modeli (LLM) geliştirdi ve gereken zaman ve maliyet, OpenAI'nin (ve diğer teknoloji şirketlerinin) kendi LLM'lerini geliştirmesinin yalnızca bir kısmını alıyor.

Zeki mimari optimizasyonu sayesinde model eğitimi ve çıkarım maliyetlerini önemli ölçüde düşüren DeepSeek, 60 gün içinde 600.000 dolardan daha az bir maliyetle bir LLM geliştirebilmektedir.

Kesinlikle, DeepSeek, model yapısını ve kodunu optimize etmenin daha iyi yollarını aktif olarak aradığı için takdir edilmeyi hak ediyor. Bu bir uyarı işareti, ancak "Sputnik anı" olarak adlandırmak için uzaktır.

Her geliştirici bilir ki, performansı artırmanın iki yolu vardır: kodu optimize etmek veya büyük miktarda hesaplama kaynağı "çarpmak". İkincisi çok maliyetli olduğu için, geliştiricilere genellikle hesaplama kaynaklarını artırmadan önce mimari optimizasyonu maksimize etmeleri önerilir.

Ancak, yapay zeka girişimlerinin değerleri yükseldikçe ve büyük yatırımlar akın ettikçe, geliştiriciler tembelleşmiş gibi görünüyor. Eğer onlarda milyarlarca dolarlık bir bütçe varsa, neden model yapısını optimize etmek için zaman harcasınlar ki?

Bu, tüm geliştiricilere bir uyarıdır: Temellere dönün, sorumlu bir şekilde yenilik yapın, konfor alanınızdan çıkın, alışılmış düşünce kalıplarından sıyrılın, normlara meydan okumaktan korkmayın. Para ve kaynakları israf etmeye gerek yok – bunları akıllıca kullanmalısınız.

Diğer LLM'ler gibi, DeepSeek R1'in çıkarım, karmaşık planlama yetenekleri, fiziksel dünyayı anlama ve kalıcı hafıza konularında hala belirgin eksiklikleri var. Bu nedenle burada devrim niteliğinde bir yenilik yok.

Artık bilim insanlarının LLM'leri aşarak bu sınırlamaları çözme ve "yeni nesil AI mimari paradigması" geliştirme zamanı. Bu, LLM veya üretken AI olmayabilir - gerçek bir devrim olabilir.

İnovasyonu hızlandırmak için yol açmak

DeepSeek'in yöntemi, kaynakları ne olursa olsun, dünya genelinde, özellikle gelişmekte olan ülkelerdeki geliştiricileri, yenilik yapmaya ve kendi AI uygulamalarını geliştirmeye teşvik edebilir. AI araştırma ve geliştirmeye katılan daha fazla insan, yenilik ve gelişim hızını artırır ve anlamlı atılımlar gerçekleştirme olasılığını artırır.

Bu, Nvidia'nın vizyonuyla uyumlu: AI'yı erişilebilir hale getirmek ve her geliştirici veya bilim insanının kendi AI uygulamasını geliştirmesini sağlamak. İşte bu, bu yılın Ocak ayının başında duyurulan DIGITS projesinin anlamıdır - 3000 dolarlık bir masaüstü GPU.

İnsanlığın acil sorunları çözmek için "herkesin sahada olması" gerekiyor. Kaynaklar artık bir engel olmamalı - eski kalıpları kırmanın zamanı geldi.

Bu arada, DeepSeek'in piyasaya sürülmesi, işletilebilir risk yönetimi ve sorumlu yapay zeka konusunda bir uyarı niteliği taşıyor.

Şartları dikkatlice okuyun

Tüm uygulamaların hizmet şartları vardır ve halk genellikle bunları göz ardı eder.

DeepSeek hizmet şartlarının bazı uyarıcı detayları, gizliliğinizi, güvenliğinizi ve hatta ticari stratejinizi etkileyebilir:

Veri Saklama: Hesabın silinmesi verilerin silindiği anlamına gelmez - DeepSeek, verilerinizi saklamaya devam eder.

Gözetim: Uygulama, kullanıcı girişi ve çıkışını, hassas bilgileri de içerecek şekilde izleme, işleme ve toplama hakkına sahiptir.

Hukuk Açıklaması: DeepSeek, Çin yasalarına tabidir, bu da devlet kurumlarının talep üzerine verilerinize erişim ve izleme yapabileceği anlamına gelir - Çin hükümeti verilerinizi aktif olarak izliyor.

Tek taraflı değişiklik: DeepSeek, koşulları istediği zaman güncelleyebilir - senin onayına ihtiyaç duymadan.

Uyuşmazlık ve Dava: Tüm talepler ve hukuki işlemler, Çin Halk Cumhuriyeti yasalarına tabidir.

Yukarıda belirtilen eylemler, Genel Veri Koruma Yönetmeliği (GDPR) ile Belçika, İrlanda ve İtalya'nın sunduğu diğer GDPR gizlilik ve güvenlik ihlalleriyle açıkça çelişmektedir ve bu ülkeler, DeepSeek'in kullanımını geçici olarak yasaklamıştır.

Mart 2023'te, İtalya'nın düzenleyici kurumları GDPR ihlali nedeniyle OpenAI'nin ChatGPT'sinin piyasaya sürülmesini geçici olarak yasakladı ve bir ay sonra uyum iyileştirmeleri yapıldıktan sonra geri aldı. DeepSeek de uyum yolunu mu izleyecek?

Önyargı ve sansür

Diğer LLM'ler gibi, DeepSeek R1'in de yanılsamaları, eğitim verilerindeki önyargıları vardır ve bazı konularda Çin siyasi duruşuna uygun davranışlar sergilemektedir, örneğin sansür ve gizlilik.

Bir Çin şirketi olarak, bu beklenebilir. AI sistem sağlayıcıları ve kullanıcıları için "Üretken AI Yasası"nın 4. maddesinde belirtilmiştir: bu bir denetim kuralıdır. Bu, üretken AI geliştiren ve/veya kullanan kişilerin "sosyalist temel değerleri" desteklemesi ve Çin'in ilgili yasalarına uyması gerektiği anlamına gelir.

Bu, diğer LLM'lerin kendi önyargıları ve "gündemleri" olmadığı anlamına gelmiyor. Bu, güvenilir ve sorumlu AI'nın önemini ve kullanıcıların katı AI risk yönetimine uyması gerektiğinin önemini vurguluyor.

LLM'nin güvenlik açığı

LLM, saldırganların saldırılarına ve güvenlik açıklarına maruz kalabilir. Bu açıklar özellikle endişe vericidir çünkü bunlar bu LLM'ye dayalı uygulamalar geliştiren herhangi bir organizasyon veya bireyi etkileyebilir.

Qualys, DeepSeek-R1'in LLaMA 8B küçültülmüş versiyonunu zayıflık testi, etik risk ve yasal risk değerlendirmesine tabi tutmuştur. Bu model, yarıdan fazla jailbreak testini geçememiştir - yani AI modelinin yerleşik güvenlik önlemlerini ve etik kurallarını aşan saldırılar.

Goldman Sachs, DeepSeek kullanmayı düşünüyor, ancak enjeksiyon saldırıları ve jailbreak testleri gibi güvenlik incelemeleri yapılması gerekiyor. Modelin Çin'den kaynaklanıp kaynaklanmadığına bakılmaksızın, herhangi bir işletme için AI modeline dayalı uygulamaların kullanılmadan önce güvenlik riskleri bulunmaktadır.

Goldman Sachs doğru risk yönetim önlemlerini uyguluyor, diğer organizasyonlar da DeepSeek'i kullanma kararı almadan önce bu uygulamayı örnek almalıdır.

deneyimleri özetlemek

Herhangi bir AI sistemi veya uygulaması kullanmadan önce tam risk yönetimi uygulayarak dikkatli ve çalışkan olmalıyız. Herhangi bir LLM'den kaynaklanan "gündem" yanlılığı ve sansür sorunlarını hafifletmek için merkeziyetsiz AI benimsemeyi, tercihen merkeziyetsiz özerk organizasyon (DAO) biçiminde düşünmeliyiz. AI sınır tanımıyor, belki de şimdi küresel AI düzenlemeleri oluşturmayı düşünmek için doğru zamandır.

Görüş yazar: Dr. Merav Ozair

İlgili Konular: Yapay Zeka (AI) çağında, merkeziyetsiz finans (DeFi) nasıl güvenli bir şekilde ölçeklenebilir gelişim sağlar

Bu makale yalnızca genel bilgi amaçlıdır, ne yasal ne de yatırım tavsiyesi olarak değerlendirilmemelidir. Bu makalede ifade edilen görüşler, düşünceler ve fikirler yalnızca yazarın kendisini temsil eder ve Cointelegraph'ın görüş ve pozisyonlarını yansıtmak zorunda değildir.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin