Hộp Pandora: Cách mà các mô hình lớn không bị hạn chế đe dọa an ninh Tiền điện tử

Trung cấp6/10/2025, 1:50:06 AM
Với sự phát triển của các mô hình lớn mã nguồn mở, các "công cụ AI không giới hạn" như WormGPT và FraudGPT đang bị lạm dụng để tạo ra email lừa đảo, viết hợp đồng độc hại và thao túng cộng đồng người dùng, gây ra mối đe dọa nghiêm trọng đến an ninh của ngành công nghiệp tiền điện tử. Bài viết này chi tiết các nguyên tắc, cách sử dụng và biện pháp đối phó với các mô hình này, báo động cho các nhà thực hành Web3.

Từ loạt GPT của OpenAI đến Gemini của Google, và nhiều mô hình mã nguồn mở khác, trí tuệ nhân tạo tiên tiến đang định hình lại công việc và lối sống của chúng ta một cách sâu sắc. Tuy nhiên, bên cạnh những tiến bộ công nghệ nhanh chóng, một khía cạnh tối tăm đáng lo ngại đang dần xuất hiện - sự gia tăng của các mô hình ngôn ngữ lớn không bị hạn chế hoặc độc hại.

Mô hình LLM không giới hạn được gọi là mô hình ngôn ngữ được thiết kế, sửa đổi hoặc "bẻ khóa" đặc biệt để vượt qua các cơ chế an toàn và ràng buộc đạo đức tích hợp của các mô hình chính thống. Các nhà phát triển LLM chính thống thường đầu tư nguồn lực đáng kể để ngăn chặn các mô hình của họ được sử dụng để tạo ra lời nói thù địch, thông tin sai lệch, mã độc hại hoặc cung cấp hướng dẫn cho các hoạt động bất hợp pháp. Tuy nhiên, trong những năm gần đây, một số cá nhân hoặc tổ chức đã bắt đầu tìm kiếm hoặc phát triển các mô hình không giới hạn vì các động cơ như tội phạm mạng. Trong bối cảnh này, bài viết sẽ xem xét các công cụ LLM không giới hạn điển hình, giới thiệu sự lạm dụng của chúng trong ngành công nghiệp mã hóa và thảo luận về các thách thức và phản ứng an ninh liên quan.

LLM không có giới hạn có thể gây hại như thế nào?

Các nhiệm vụ trước đây yêu cầu kỹ năng chuyên môn, chẳng hạn như viết mã độc, tạo email lừa đảo và lập kế hoạch lừa đảo, giờ đây có thể dễ dàng được thực hiện bởi những người bình thường mà không cần kinh nghiệm lập trình với sự hỗ trợ của các LLM không bị hạn chế. Những kẻ tấn công chỉ cần lấy các trọng số và mã nguồn của các mô hình mã nguồn mở, sau đó tinh chỉnh chúng trên các tập dữ liệu chứa nội dung độc hại, các tuyên bố thiên lệch hoặc hướng dẫn bất hợp pháp để tạo ra các công cụ tấn công tùy chỉnh.

Mô hình này đã tạo ra nhiều mối nguy hiểm về rủi ro: kẻ tấn công có thể "thay đổi một cách ma thuật" các mô hình dựa trên các mục tiêu cụ thể để tạo ra nội dung lừa đảo hơn, từ đó vượt qua các ràng buộc về kiểm duyệt nội dung và an ninh của các LLM thông thường; mô hình cũng có thể được sử dụng để nhanh chóng tạo ra các biến thể mã cho các trang web lừa đảo hoặc điều chỉnh nội dung lừa đảo cho các nền tảng mạng xã hội khác nhau; trong khi đó, khả năng tiếp cận và khả năng sửa đổi của các mô hình mã nguồn mở tiếp tục thúc đẩy sự hình thành và phát triển của một hệ sinh thái AI ngầm, cung cấp một môi trường cho các giao dịch và phát triển bất hợp pháp. Dưới đây là một giới thiệu ngắn gọn về các LLM không bị hạn chế như vậy:

WormGPT: Phiên bản đen GPT

WormGPT là một LLM độc hại được bán công khai trên các diễn đàn ngầm, mà các nhà phát triển của nó tuyên bố rõ ràng rằng nó không có bất kỳ hạn chế đạo đức nào, biến nó thành một phiên bản đen của mô hình GPT. Nó dựa trên các mô hình mã nguồn mở như GPT-J 6B và được đào tạo trên một lượng lớn dữ liệu liên quan đến phần mềm độc hại. Người dùng cần trả ít nhất 189 đô la để có quyền truy cập trong một tháng. Sự lạm dụng đáng chú ý nhất của WormGPT là tạo ra các email tấn công Business Email Compromise (BEC) và email lừa đảo rất thực tế và thuyết phục. Những lạm dụng điển hình của nó trong không gian mã hóa bao gồm:

  • Tạo email/tin nhắn lừa đảo: Bắt chước các sàn giao dịch tiền điện tử, ví, hoặc các dự án nổi tiếng để gửi yêu cầu "xác minh tài khoản" đến người dùng, khiến họ nhấp vào các liên kết độc hại hoặc rò rỉ khóa riêng/cụm từ hạt giống;
  • Viết mã độc: Hỗ trợ những kẻ tấn công kém kỹ năng về công nghệ trong việc viết mã độc để đánh cắp tệp ví, theo dõi clipboard, ghi lại các phím nhấn, v.v.
  • Thực hiện lừa đảo tự động: Tự động trả lời các nạn nhân tiềm năng, hướng dẫn họ tham gia vào các airdrop giả mạo hoặc dự án đầu tư.


DarkBERT: Một Con Dao Hai Lưỡi cho Nội Dung Web Tối

DarkBERT là một mô hình ngôn ngữ được phát triển trong sự hợp tác giữa các nhà nghiên cứu từ Viện Khoa học và Công nghệ Cao Hàn Quốc (KAIST) và S2W Inc., được tiền huấn luyện đặc biệt trên dữ liệu từ dark web (như diễn đàn, thị trường đen và thông tin bị rò rỉ) với mục đích giúp các nhà nghiên cứu an ninh mạng và các cơ quan thực thi pháp luật hiểu rõ hơn về hệ sinh thái dark web, theo dõi các hoạt động bất hợp pháp, xác định các mối đe dọa tiềm ẩn và thu thập thông tin tình báo về mối đe dọa.

Mặc dù DarkBERT được thiết kế với ý định tốt, nhưng nội dung nhạy cảm mà nó chứa đựng liên quan đến web tối, bao gồm dữ liệu, phương pháp tấn công và chiến lược giao dịch bất hợp pháp, có thể gây ra hậu quả nghiêm trọng nếu những kẻ xấu có được nó hoặc sử dụng các công nghệ tương tự để đào tạo các mô hình lớn không bị hạn chế. Việc lạm dụng tiềm năng của nó trong các tình huống mã hóa bao gồm:

  • Thực hiện các vụ lừa đảo chính xác: thu thập thông tin về người dùng mã hóa và các đội dự án để lừa đảo kỹ thuật xã hội.
  • Bắt chước cách thức hoạt động tội phạm: Nhân bản các chiến thuật trộm tiền điện tử và rửa tiền đã được chứng minh trên mạng tối.

FraudGPT: Con dao Swiss Army của gian lận trực tuyến

FraudGPT tuyên bố là phiên bản nâng cấp của WormGPT, cung cấp nhiều tính năng toàn diện hơn, chủ yếu được bán trên dark web và các diễn đàn hacker, với phí hàng tháng dao động từ $200 đến $1,700. Những lạm dụng điển hình của nó trong kịch bản mã hóa bao gồm:

  • Các dự án mã hóa giả mạo: Tạo ra các tài liệu trắng giả, trang web chính thức, lộ trình và nội dung tiếp thị để thực hiện các ICO/IDO lừa đảo.
  • Tạo trang lừa đảo hàng loạt: Nhanh chóng tạo các trang đăng nhập giả mạo cho các sàn giao dịch tiền điện tử nổi tiếng hoặc giao diện kết nối ví.
  • Hoạt động của bot trên mạng xã hội: sản xuất hàng loạt bình luận giả và tuyên truyền, tăng cường các token lừa đảo hoặc làm mất uy tín các dự án cạnh tranh.
  • Các cuộc tấn công kỹ thuật xã hội: Chatbot này có thể bắt chước các cuộc trò chuyện của con người, thiết lập lòng tin với những người dùng không nghi ngờ, và dụ dỗ họ vô tình tiết lộ thông tin nhạy cảm hoặc thực hiện các hành động gây hại.

GhostGPT: Một trợ lý AI không bị ràng buộc bởi các ràng buộc đạo đức

GhostGPT là một chatbot AI được định vị rõ ràng là không có ràng buộc đạo đức, với các lạm dụng điển hình trong kịch bản mã hóa bao gồm:

  • Các cuộc tấn công lừa đảo nâng cao: Tạo ra các email lừa đảo cực kỳ chân thực giả mạo các sàn giao dịch chính thống để phát hành các yêu cầu xác minh KYC giả, thông báo bảo mật hoặc thông báo đóng băng tài khoản.
  • Tạo mã độc cho hợp đồng thông minh: Không cần bất kỳ nền tảng lập trình nào, kẻ tấn công có thể nhanh chóng tạo ra các hợp đồng thông minh chứa các lỗ hổng ẩn hoặc logic gian lận bằng cách sử dụng GhostGPT, cho các trò lừa đảo Rug Pull hoặc tấn công vào các giao thức DeFi.
  • Trộm tiền điện tử đa hình: Tạo ra phần mềm độc hại với khả năng biến hình liên tục để đánh cắp tệp ví, khóa riêng và cụm từ ghi nhớ. Các đặc điểm đa hình của nó khiến phần mềm bảo mật dựa trên chữ ký truyền thống khó phát hiện.
  • Các cuộc tấn công kỹ thuật xã hội: Bằng cách kết hợp các kịch bản do AI tạo ra, các kẻ tấn công có thể triển khai bot trên các nền tảng như Discord và Telegram để dụ dỗ người dùng tham gia vào việc đúc NFT giả, airdrop hoặc các dự án đầu tư.
  • Lừa đảo deepfake: Kết hợp với các công cụ AI khác, GhostGPT có thể được sử dụng để tạo ra giọng nói của các nhà sáng lập dự án mã hóa giả, nhà đầu tư hoặc giám đốc điều hành sàn giao dịch, thực hiện các cuộc lừa đảo qua điện thoại hoặc các cuộc tấn công Business Email Compromise (BEC).

Venice.ai: Rủi ro tiềm ẩn của việc truy cập không bị kiểm duyệt

Venice.ai cung cấp quyền truy cập vào nhiều LLM khác nhau, bao gồm một số mô hình có ít sự giám sát hơn hoặc có các quy định lỏng lẻo hơn. Nó tự định vị mình là một Cổng mở cho người dùng khám phá khả năng của các LLM khác nhau, cung cấp các mô hình tiên tiến, chính xác và không bị kiểm duyệt để có trải nghiệm AI thực sự không bị hạn chế, nhưng nó cũng có thể bị các tác nhân xấu lợi dụng để tạo ra nội dung có hại. Các rủi ro liên quan đến nền tảng bao gồm:

  • Vượt qua kiểm duyệt để tạo ra nội dung độc hại: Những kẻ tấn công có thể sử dụng các mô hình với ít hạn chế hơn trên nền tảng để tạo ra các mẫu lừa đảo, tuyên truyền sai, hoặc ý tưởng tấn công.
  • Giảm ngưỡng cho kỹ thuật tạo prompt: ngay cả khi kẻ tấn công không có kỹ năng tạo prompt "jailbreaking" tiên tiến, họ vẫn có thể dễ dàng nhận được các đầu ra mà trước đây bị hạn chế.
  • Tăng tốc độ lặp lại kịch bản tấn công: Kẻ tấn công có thể sử dụng nền tảng này để nhanh chóng kiểm tra phản ứng của các mô hình khác nhau đối với các lệnh độc hại, tối ưu hóa kịch bản gian lận và phương pháp tấn công.

Viết ở cuối

Sự xuất hiện của các LLM không bị hạn chế đánh dấu một mô hình tấn công mới vào an ninh mạng, phức tạp hơn, có thể mở rộng và tự động hóa. Những mô hình này không chỉ làm giảm ngưỡng cho các cuộc tấn công mà còn giới thiệu những mối đe dọa mới, tinh vi và lừa đảo hơn.

Trong trò chơi phòng thủ và tấn công đang diễn ra này, tất cả các bên trong hệ sinh thái an ninh phải hợp tác để đối phó với các rủi ro trong tương lai: một mặt, cần phải tăng cường đầu tư vào công nghệ phát hiện để phát triển các hệ thống có khả năng xác định và chặn nội dung lừa đảo do các LLM độc hại tạo ra, khai thác lỗ hổng hợp đồng thông minh và mã độc; mặt khác, cũng cần nỗ lực thúc đẩy việc xây dựng khả năng chống bẻ khóa mô hình và khám phá các cơ chế đánh dấu và theo dõi để theo dõi nguồn gốc của nội dung độc hại trong các tình huống quan trọng như tài chính và tạo mã; ngoài ra, một khung đạo đức và cơ chế quy định hợp lý phải được thiết lập để hạn chế một cách cơ bản sự phát triển và lạm dụng của các mô hình độc hại.

Tuyên bố:

  1. Bài viết này được đăng lại từ [TechFlow] Bản quyền thuộc về tác giả gốc [TechFlow] Nếu có bất kỳ ý kiến nào về việc in lại, xin vui lòng liên hệ Đội ngũ Gate LearnNhóm sẽ xử lý nó nhanh nhất có thể theo các quy trình liên quan.
  2. Thông báo: Những quan điểm và ý kiến được bày tỏ trong bài viết này hoàn toàn là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Các phiên bản ngôn ngữ khác của bài viết được dịch bởi đội ngũ Gate Learn, trừ khi có thông báo khác.CổngTrong những trường hợp như vậy, việc sao chép, phát tán hoặc đạo văn các bài viết đã dịch là bị cấm.

Hộp Pandora: Cách mà các mô hình lớn không bị hạn chế đe dọa an ninh Tiền điện tử

Trung cấp6/10/2025, 1:50:06 AM
Với sự phát triển của các mô hình lớn mã nguồn mở, các "công cụ AI không giới hạn" như WormGPT và FraudGPT đang bị lạm dụng để tạo ra email lừa đảo, viết hợp đồng độc hại và thao túng cộng đồng người dùng, gây ra mối đe dọa nghiêm trọng đến an ninh của ngành công nghiệp tiền điện tử. Bài viết này chi tiết các nguyên tắc, cách sử dụng và biện pháp đối phó với các mô hình này, báo động cho các nhà thực hành Web3.

Từ loạt GPT của OpenAI đến Gemini của Google, và nhiều mô hình mã nguồn mở khác, trí tuệ nhân tạo tiên tiến đang định hình lại công việc và lối sống của chúng ta một cách sâu sắc. Tuy nhiên, bên cạnh những tiến bộ công nghệ nhanh chóng, một khía cạnh tối tăm đáng lo ngại đang dần xuất hiện - sự gia tăng của các mô hình ngôn ngữ lớn không bị hạn chế hoặc độc hại.

Mô hình LLM không giới hạn được gọi là mô hình ngôn ngữ được thiết kế, sửa đổi hoặc "bẻ khóa" đặc biệt để vượt qua các cơ chế an toàn và ràng buộc đạo đức tích hợp của các mô hình chính thống. Các nhà phát triển LLM chính thống thường đầu tư nguồn lực đáng kể để ngăn chặn các mô hình của họ được sử dụng để tạo ra lời nói thù địch, thông tin sai lệch, mã độc hại hoặc cung cấp hướng dẫn cho các hoạt động bất hợp pháp. Tuy nhiên, trong những năm gần đây, một số cá nhân hoặc tổ chức đã bắt đầu tìm kiếm hoặc phát triển các mô hình không giới hạn vì các động cơ như tội phạm mạng. Trong bối cảnh này, bài viết sẽ xem xét các công cụ LLM không giới hạn điển hình, giới thiệu sự lạm dụng của chúng trong ngành công nghiệp mã hóa và thảo luận về các thách thức và phản ứng an ninh liên quan.

LLM không có giới hạn có thể gây hại như thế nào?

Các nhiệm vụ trước đây yêu cầu kỹ năng chuyên môn, chẳng hạn như viết mã độc, tạo email lừa đảo và lập kế hoạch lừa đảo, giờ đây có thể dễ dàng được thực hiện bởi những người bình thường mà không cần kinh nghiệm lập trình với sự hỗ trợ của các LLM không bị hạn chế. Những kẻ tấn công chỉ cần lấy các trọng số và mã nguồn của các mô hình mã nguồn mở, sau đó tinh chỉnh chúng trên các tập dữ liệu chứa nội dung độc hại, các tuyên bố thiên lệch hoặc hướng dẫn bất hợp pháp để tạo ra các công cụ tấn công tùy chỉnh.

Mô hình này đã tạo ra nhiều mối nguy hiểm về rủi ro: kẻ tấn công có thể "thay đổi một cách ma thuật" các mô hình dựa trên các mục tiêu cụ thể để tạo ra nội dung lừa đảo hơn, từ đó vượt qua các ràng buộc về kiểm duyệt nội dung và an ninh của các LLM thông thường; mô hình cũng có thể được sử dụng để nhanh chóng tạo ra các biến thể mã cho các trang web lừa đảo hoặc điều chỉnh nội dung lừa đảo cho các nền tảng mạng xã hội khác nhau; trong khi đó, khả năng tiếp cận và khả năng sửa đổi của các mô hình mã nguồn mở tiếp tục thúc đẩy sự hình thành và phát triển của một hệ sinh thái AI ngầm, cung cấp một môi trường cho các giao dịch và phát triển bất hợp pháp. Dưới đây là một giới thiệu ngắn gọn về các LLM không bị hạn chế như vậy:

WormGPT: Phiên bản đen GPT

WormGPT là một LLM độc hại được bán công khai trên các diễn đàn ngầm, mà các nhà phát triển của nó tuyên bố rõ ràng rằng nó không có bất kỳ hạn chế đạo đức nào, biến nó thành một phiên bản đen của mô hình GPT. Nó dựa trên các mô hình mã nguồn mở như GPT-J 6B và được đào tạo trên một lượng lớn dữ liệu liên quan đến phần mềm độc hại. Người dùng cần trả ít nhất 189 đô la để có quyền truy cập trong một tháng. Sự lạm dụng đáng chú ý nhất của WormGPT là tạo ra các email tấn công Business Email Compromise (BEC) và email lừa đảo rất thực tế và thuyết phục. Những lạm dụng điển hình của nó trong không gian mã hóa bao gồm:

  • Tạo email/tin nhắn lừa đảo: Bắt chước các sàn giao dịch tiền điện tử, ví, hoặc các dự án nổi tiếng để gửi yêu cầu "xác minh tài khoản" đến người dùng, khiến họ nhấp vào các liên kết độc hại hoặc rò rỉ khóa riêng/cụm từ hạt giống;
  • Viết mã độc: Hỗ trợ những kẻ tấn công kém kỹ năng về công nghệ trong việc viết mã độc để đánh cắp tệp ví, theo dõi clipboard, ghi lại các phím nhấn, v.v.
  • Thực hiện lừa đảo tự động: Tự động trả lời các nạn nhân tiềm năng, hướng dẫn họ tham gia vào các airdrop giả mạo hoặc dự án đầu tư.


DarkBERT: Một Con Dao Hai Lưỡi cho Nội Dung Web Tối

DarkBERT là một mô hình ngôn ngữ được phát triển trong sự hợp tác giữa các nhà nghiên cứu từ Viện Khoa học và Công nghệ Cao Hàn Quốc (KAIST) và S2W Inc., được tiền huấn luyện đặc biệt trên dữ liệu từ dark web (như diễn đàn, thị trường đen và thông tin bị rò rỉ) với mục đích giúp các nhà nghiên cứu an ninh mạng và các cơ quan thực thi pháp luật hiểu rõ hơn về hệ sinh thái dark web, theo dõi các hoạt động bất hợp pháp, xác định các mối đe dọa tiềm ẩn và thu thập thông tin tình báo về mối đe dọa.

Mặc dù DarkBERT được thiết kế với ý định tốt, nhưng nội dung nhạy cảm mà nó chứa đựng liên quan đến web tối, bao gồm dữ liệu, phương pháp tấn công và chiến lược giao dịch bất hợp pháp, có thể gây ra hậu quả nghiêm trọng nếu những kẻ xấu có được nó hoặc sử dụng các công nghệ tương tự để đào tạo các mô hình lớn không bị hạn chế. Việc lạm dụng tiềm năng của nó trong các tình huống mã hóa bao gồm:

  • Thực hiện các vụ lừa đảo chính xác: thu thập thông tin về người dùng mã hóa và các đội dự án để lừa đảo kỹ thuật xã hội.
  • Bắt chước cách thức hoạt động tội phạm: Nhân bản các chiến thuật trộm tiền điện tử và rửa tiền đã được chứng minh trên mạng tối.

FraudGPT: Con dao Swiss Army của gian lận trực tuyến

FraudGPT tuyên bố là phiên bản nâng cấp của WormGPT, cung cấp nhiều tính năng toàn diện hơn, chủ yếu được bán trên dark web và các diễn đàn hacker, với phí hàng tháng dao động từ $200 đến $1,700. Những lạm dụng điển hình của nó trong kịch bản mã hóa bao gồm:

  • Các dự án mã hóa giả mạo: Tạo ra các tài liệu trắng giả, trang web chính thức, lộ trình và nội dung tiếp thị để thực hiện các ICO/IDO lừa đảo.
  • Tạo trang lừa đảo hàng loạt: Nhanh chóng tạo các trang đăng nhập giả mạo cho các sàn giao dịch tiền điện tử nổi tiếng hoặc giao diện kết nối ví.
  • Hoạt động của bot trên mạng xã hội: sản xuất hàng loạt bình luận giả và tuyên truyền, tăng cường các token lừa đảo hoặc làm mất uy tín các dự án cạnh tranh.
  • Các cuộc tấn công kỹ thuật xã hội: Chatbot này có thể bắt chước các cuộc trò chuyện của con người, thiết lập lòng tin với những người dùng không nghi ngờ, và dụ dỗ họ vô tình tiết lộ thông tin nhạy cảm hoặc thực hiện các hành động gây hại.

GhostGPT: Một trợ lý AI không bị ràng buộc bởi các ràng buộc đạo đức

GhostGPT là một chatbot AI được định vị rõ ràng là không có ràng buộc đạo đức, với các lạm dụng điển hình trong kịch bản mã hóa bao gồm:

  • Các cuộc tấn công lừa đảo nâng cao: Tạo ra các email lừa đảo cực kỳ chân thực giả mạo các sàn giao dịch chính thống để phát hành các yêu cầu xác minh KYC giả, thông báo bảo mật hoặc thông báo đóng băng tài khoản.
  • Tạo mã độc cho hợp đồng thông minh: Không cần bất kỳ nền tảng lập trình nào, kẻ tấn công có thể nhanh chóng tạo ra các hợp đồng thông minh chứa các lỗ hổng ẩn hoặc logic gian lận bằng cách sử dụng GhostGPT, cho các trò lừa đảo Rug Pull hoặc tấn công vào các giao thức DeFi.
  • Trộm tiền điện tử đa hình: Tạo ra phần mềm độc hại với khả năng biến hình liên tục để đánh cắp tệp ví, khóa riêng và cụm từ ghi nhớ. Các đặc điểm đa hình của nó khiến phần mềm bảo mật dựa trên chữ ký truyền thống khó phát hiện.
  • Các cuộc tấn công kỹ thuật xã hội: Bằng cách kết hợp các kịch bản do AI tạo ra, các kẻ tấn công có thể triển khai bot trên các nền tảng như Discord và Telegram để dụ dỗ người dùng tham gia vào việc đúc NFT giả, airdrop hoặc các dự án đầu tư.
  • Lừa đảo deepfake: Kết hợp với các công cụ AI khác, GhostGPT có thể được sử dụng để tạo ra giọng nói của các nhà sáng lập dự án mã hóa giả, nhà đầu tư hoặc giám đốc điều hành sàn giao dịch, thực hiện các cuộc lừa đảo qua điện thoại hoặc các cuộc tấn công Business Email Compromise (BEC).

Venice.ai: Rủi ro tiềm ẩn của việc truy cập không bị kiểm duyệt

Venice.ai cung cấp quyền truy cập vào nhiều LLM khác nhau, bao gồm một số mô hình có ít sự giám sát hơn hoặc có các quy định lỏng lẻo hơn. Nó tự định vị mình là một Cổng mở cho người dùng khám phá khả năng của các LLM khác nhau, cung cấp các mô hình tiên tiến, chính xác và không bị kiểm duyệt để có trải nghiệm AI thực sự không bị hạn chế, nhưng nó cũng có thể bị các tác nhân xấu lợi dụng để tạo ra nội dung có hại. Các rủi ro liên quan đến nền tảng bao gồm:

  • Vượt qua kiểm duyệt để tạo ra nội dung độc hại: Những kẻ tấn công có thể sử dụng các mô hình với ít hạn chế hơn trên nền tảng để tạo ra các mẫu lừa đảo, tuyên truyền sai, hoặc ý tưởng tấn công.
  • Giảm ngưỡng cho kỹ thuật tạo prompt: ngay cả khi kẻ tấn công không có kỹ năng tạo prompt "jailbreaking" tiên tiến, họ vẫn có thể dễ dàng nhận được các đầu ra mà trước đây bị hạn chế.
  • Tăng tốc độ lặp lại kịch bản tấn công: Kẻ tấn công có thể sử dụng nền tảng này để nhanh chóng kiểm tra phản ứng của các mô hình khác nhau đối với các lệnh độc hại, tối ưu hóa kịch bản gian lận và phương pháp tấn công.

Viết ở cuối

Sự xuất hiện của các LLM không bị hạn chế đánh dấu một mô hình tấn công mới vào an ninh mạng, phức tạp hơn, có thể mở rộng và tự động hóa. Những mô hình này không chỉ làm giảm ngưỡng cho các cuộc tấn công mà còn giới thiệu những mối đe dọa mới, tinh vi và lừa đảo hơn.

Trong trò chơi phòng thủ và tấn công đang diễn ra này, tất cả các bên trong hệ sinh thái an ninh phải hợp tác để đối phó với các rủi ro trong tương lai: một mặt, cần phải tăng cường đầu tư vào công nghệ phát hiện để phát triển các hệ thống có khả năng xác định và chặn nội dung lừa đảo do các LLM độc hại tạo ra, khai thác lỗ hổng hợp đồng thông minh và mã độc; mặt khác, cũng cần nỗ lực thúc đẩy việc xây dựng khả năng chống bẻ khóa mô hình và khám phá các cơ chế đánh dấu và theo dõi để theo dõi nguồn gốc của nội dung độc hại trong các tình huống quan trọng như tài chính và tạo mã; ngoài ra, một khung đạo đức và cơ chế quy định hợp lý phải được thiết lập để hạn chế một cách cơ bản sự phát triển và lạm dụng của các mô hình độc hại.

Tuyên bố:

  1. Bài viết này được đăng lại từ [TechFlow] Bản quyền thuộc về tác giả gốc [TechFlow] Nếu có bất kỳ ý kiến nào về việc in lại, xin vui lòng liên hệ Đội ngũ Gate LearnNhóm sẽ xử lý nó nhanh nhất có thể theo các quy trình liên quan.
  2. Thông báo: Những quan điểm và ý kiến được bày tỏ trong bài viết này hoàn toàn là của tác giả và không cấu thành bất kỳ lời khuyên đầu tư nào.
  3. Các phiên bản ngôn ngữ khác của bài viết được dịch bởi đội ngũ Gate Learn, trừ khi có thông báo khác.CổngTrong những trường hợp như vậy, việc sao chép, phát tán hoặc đạo văn các bài viết đã dịch là bị cấm.
Bắt đầu giao dịch
Đăng ký và giao dịch để nhận phần thưởng USDTEST trị giá
$100
$5500