Độ sâu tìm kiếm (DeepSeek): tiếng chuông cảnh tỉnh về đổi mới có trách nhiệm và quản lý rủi ro

robot
Đang tạo bản tóm tắt

Nguồn: Cointelegraph Nguyên văn: 《 Tìm kiếm sâu sắc (DeepSeek): Chuông cảnh báo về đổi mới có trách nhiệm và quản lý rủi ro 》

Tác giả quan điểm: Tiến sĩ Merav Ozair

Kể từ khi ra mắt vào ngày 20 tháng 1, DeepSeek R1 đã thu hút sự chú ý rộng rãi từ người dùng cũng như các ông lớn công nghệ toàn cầu, chính phủ và các nhà hoạch định chính sách - từ sự ca ngợi đến sự nghi ngờ, từ việc áp dụng đến lệnh cấm, từ sự rực rỡ của đổi mới đến những lỗ hổng về quyền riêng tư và an ninh không thể đo lường.

Ai là đúng? Câu trả lời ngắn gọn: Ai cũng đúng và ai cũng sai.

Đây không phải là "Khoảnh khắc Sputnik"

DeepSeek đã phát triển một mô hình ngôn ngữ lớn (LLM) có hiệu suất có thể so sánh với GTPo1 của OpenAI, và thời gian cũng như chi phí cần thiết chỉ bằng một phần nhỏ so với việc OpenAI (và các công ty công nghệ khác) phát triển LLM của riêng họ.

Thông qua việc tối ưu hóa kiến trúc một cách khéo léo, DeepSeek đã giảm mạnh chi phí đào tạo và suy diễn mô hình, có thể phát triển một LLM trong 60 ngày với chi phí chưa đến 600 triệu đô la.

Thật vậy, DeepSeek xứng đáng được công nhận vì đã chủ động tìm kiếm những cách tốt hơn để tối ưu hóa cấu trúc mô hình và mã. Đây là một lời cảnh tỉnh, nhưng không thể gọi là "thời khắc Sputnik".

Mỗi nhà phát triển đều biết rằng có hai cách để cải thiện hiệu suất: tối ưu hóa mã hoặc "đập" một lượng lớn tài nguyên tính toán. Cách sau có chi phí rất cao, vì vậy các nhà phát triển luôn được khuyên nên tối đa hóa tối ưu kiến trúc trước khi tăng cường tài nguyên tính toán.

Tuy nhiên, với việc các công ty khởi nghiệp về trí tuệ nhân tạo có mức định giá cao và hàng tỷ đô la đầu tư đổ vào, các nhà phát triển dường như đã trở nên lười biếng. Nếu nắm trong tay ngân sách hàng tỷ đô la, tại sao phải tốn thời gian tối ưu hóa cấu trúc mô hình?

Đây là lời cảnh báo cho tất cả các nhà phát triển: trở về nền tảng, đổi mới có trách nhiệm, ra khỏi vùng an toàn, thoát khỏi những mô hình tư duy cố hữu, không sợ thách thức các quy tắc thông thường. Không cần lãng phí tiền bạc và tài nguyên - hãy sử dụng chúng một cách khôn ngoan.

Giống như các LLM khác, DeepSeek R1 vẫn còn thiếu sót rõ rệt trong khả năng suy luận, lập kế hoạch phức tạp, hiểu biết về thế giới vật lý và trí nhớ bền vững. Do đó, không có gì đổi mới mang tính cách mạng ở đây.

Bây giờ là thời điểm để các nhà khoa học vượt qua LLM, giải quyết những hạn chế này và phát triển "mô hình kiến trúc AI thế hệ mới". Điều này có thể không phải là LLM hay AI sinh tạo - mà là một cuộc cách mạng thực sự.

Để thúc đẩy đổi mới

Phương pháp DeepSeek có thể khuyến khích các nhà phát triển trên toàn cầu, đặc biệt là ở các nước đang phát triển, bất kể nguồn lực có bao nhiêu, đều có thể đổi mới và phát triển ứng dụng AI của riêng họ. Càng nhiều người tham gia vào nghiên cứu và phát triển AI, tốc độ đổi mới phát triển càng nhanh và khả năng đạt được những đột phá có ý nghĩa càng cao.

Điều này phù hợp với tầm nhìn của Nvidia: làm cho AI trở nên phải chăng và cho phép mỗi nhà phát triển hoặc nhà khoa học phát triển ứng dụng AI của riêng họ. Đây chính là ý nghĩa của dự án DIGITS được công bố vào đầu tháng 1 năm nay - một GPU để bàn có giá 3000 đô la.

Nhân loại cần "tất cả mọi người tham gia" để giải quyết những vấn đề cấp bách. Tài nguyên có thể không còn là rào cản - đã đến lúc phá vỡ những quy tắc cũ.

Đồng thời, việc phát hành DeepSeek cũng là một lời cảnh tỉnh về quản lý rủi ro có thể hành động và trí tuệ nhân tạo có trách nhiệm.

Đọc kỹ các điều khoản

Tất cả các ứng dụng đều có điều khoản dịch vụ, và công chúng thường bỏ qua chúng.

Một số chi tiết đáng chú ý trong Điều khoản dịch vụ của DeepSeek có thể ảnh hưởng đến quyền riêng tư, an ninh và thậm chí là chiến lược kinh doanh của bạn:

Dữ liệu được lưu giữ: Việc xóa tài khoản không có nghĩa là dữ liệu bị xóa - DeepSeek vẫn giữ dữ liệu của bạn.

Giám sát: Ứng dụng có quyền giám sát, xử lý và thu thập thông tin đầu vào và đầu ra của người dùng, bao gồm thông tin nhạy cảm.

Phơi bày pháp lý: DeepSeek chịu sự quản lý của pháp luật Trung Quốc, điều này có nghĩa là các cơ quan nhà nước có thể yêu cầu truy cập và giám sát dữ liệu của bạn - chính phủ Trung Quốc đang tích cực giám sát dữ liệu của bạn.

Thay đổi đơn phương: DeepSeek có thể cập nhật các điều khoản bất cứ lúc nào - không cần sự đồng ý của bạn.

Tranh chấp và kiện tụng: Tất cả các khiếu nại và vấn đề pháp lý đều chịu sự quản lý của pháp luật Cộng hòa Nhân dân Trung Hoa.

Hành vi trên rõ ràng vi phạm Quy định bảo vệ dữ liệu chung (GDPR) cũng như các vi phạm quyền riêng tư và an ninh GDPR khác được nêu trong các đơn khiếu nại của Bỉ, Ireland và Ý, và các quốc gia này cũng đã tạm thời cấm việc sử dụng DeepSeek.

Vào tháng 3 năm 2023, cơ quan quản lý của Ý đã tạm thời cấm ChatGPT của OpenAI ra mắt do vi phạm GDPR, cho đến khi cải tiến tuân thủ được thực hiện một tháng sau đó mới được khôi phục. DeepSeek có tuân theo con đường tuân thủ này không?

Định kiến và kiểm duyệt

Giống như các LLM khác, DeepSeek R1 có hiện tượng ảo tưởng, sự thiên lệch trong dữ liệu đào tạo và thể hiện hành vi phù hợp với lập trường chính trị của Trung Quốc về một số chủ đề, chẳng hạn như kiểm duyệt và quyền riêng tư.

Là một công ty Trung Quốc, điều này có thể được mong đợi. Luật "AI sinh ra" áp dụng cho nhà cung cấp và người dùng hệ thống AI quy định trong Điều 4: Đây là một quy tắc kiểm tra. Điều này có nghĩa là những người phát triển và/hoặc sử dụng AI sinh ra phải hỗ trợ "giá trị cốt lõi của chủ nghĩa xã hội" và tuân thủ các luật liên quan của Trung Quốc.

Điều này không có nghĩa là các LLM khác không có định kiến và "chương trình" riêng của chúng. Điều này nhấn mạnh tầm quan trọng của AI đáng tin cậy và có trách nhiệm, cũng như tầm quan trọng của việc người dùng cần tuân thủ quản lý rủi ro AI một cách nghiêm ngặt.

Lỗ hổng bảo mật của LLM

LLM có thể bị tấn công đối kháng và lỗ hổng bảo mật. Những lỗ hổng này đặc biệt đáng lo ngại vì chúng sẽ ảnh hưởng đến bất kỳ tổ chức hoặc cá nhân nào xây dựng ứng dụng dựa trên LLM đó.

Qualys đã tiến hành kiểm tra lỗ hổng, đánh giá rủi ro đạo đức và rủi ro pháp lý cho phiên bản rút gọn LLaMA 8B của DeepSeek-R1. Mô hình này đã thất bại trong một nửa số bài kiểm tra jailbreak - tức là các cuộc tấn công nhằm vượt qua các biện pháp an ninh và nguyên tắc đạo đức tích hợp trong mô hình AI.

Goldman Sachs đang xem xét việc sử dụng DeepSeek, nhưng cần phải thực hiện kiểm tra an ninh, chẳng hạn như tấn công tiêm và kiểm tra jailbreak. Bất kể mô hình có nguồn gốc từ Trung Quốc hay không, việc sử dụng ứng dụng được điều khiển bởi mô hình AI luôn có những rủi ro về an ninh đối với bất kỳ doanh nghiệp nào.

Goldman Sachs đang thực hiện các biện pháp quản lý rủi ro đúng đắn, các tổ chức khác cũng nên bắt chước cách làm này trước khi quyết định sử dụng DeepSeek.

Tổng kết kinh nghiệm

Chúng ta phải giữ cảnh giác và siêng năng, thực hiện quản lý rủi ro đầy đủ trước khi sử dụng bất kỳ hệ thống hoặc ứng dụng AI nào. Để giảm thiểu bất kỳ thiên kiến "đ agenda" và vấn đề kiểm duyệt nào do LLM gây ra, chúng ta có thể xem xét việc áp dụng AI phi tập trung, tốt nhất là dưới hình thức tổ chức tự trị phi tập trung (DAO). AI không biên giới, có lẽ bây giờ là thời điểm thích hợp để xem xét việc xây dựng quy định AI toàn cầu thống nhất.

Tác giả quan điểm: Tiến sĩ Merav Ozair

Các đề xuất liên quan: Tài chính phi tập trung (DeFi) làm thế nào để phát triển quy mô an toàn trong thời đại trí tuệ nhân tạo (AI)

Bài viết này chỉ nhằm mục đích cung cấp thông tin chung, không phải và không nên được coi là lời khuyên pháp lý hoặc đầu tư. Những quan điểm, ý tưởng và ý kiến được trình bày trong bài viết này chỉ đại diện cho tác giả và không nhất thiết phản ánh hoặc đại diện cho quan điểm và lập trường của Cointelegraph.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)