Tin tức
Các nhà nghiên cứu Trung Quốc phát triển mô hình AI phục vụ mục đích quân sự dựa trên mô hình Llama của Meta
Cập nhật lần cuối: 01/11/2024

Các viện nghiên cứu hàng đầu của Trung Quốc có quan hệ với Quân đội đã sử dụng mô hình Llama mã nguồn mở của Meta để phát triển một công cụ AI cho các ứng dụng quân sự tiềm năng, theo các bài báo học thuật và các nhà phân tích.

Trong một nghiên cứu hồi tháng 06 mà Reuters đã xem xét, sáu nhà nghiên cứu Trung Quốc từ ba viện, bao gồm hai viện trực thuộc Viện Hàn lâm Khoa học Quân sự (AMS), cơ quan nghiên cứu hàng đầu của Quân đội Trung Quốc (PLA), đã nêu chi tiết cách họ sử dụng phiên bản đầu tiên của Llama của Meta làm cơ sở cho cái mà họ gọi là "ChatBIT".

Các nhà nghiên cứu đã sử dụng mô hình ngôn ngữ lớn (LLM) Llama 2 13B mà Meta phát hành vào tháng 02 năm 2023, kết hợp các tham số của riêng họ để xây dựng một công cụ AI tập trung vào quân sự nhằm thu thập và xử lý thông tin tình báo, đồng thời cung cấp thông tin chính xác và đáng tin cậy để ra quyết định tác chiến.

Bài báo cho biết ChatBIT đã được tinh chỉnh và "tối ưu hóa cho các nhiệm vụ đối thoại và trả lời câu hỏi trong lĩnh vực quân sự". Người ta thấy rằng nó hoạt động tốt hơn một số mô hình AI khác có khả năng tương đương khoảng 90% so với ChatGPT-4 mạnh mẽ của OpenAI. Các nhà nghiên cứu không giải thích chi tiết về cách họ định nghĩa hiệu suất hoặc nêu rõ liệu mô hình AI đã được đưa vào sử dụng hay chưa.

"Đây là lần đầu tiên có bằng chứng đáng kể cho thấy các chuyên gia quân sự PLA tại Trung Quốc đã nghiên cứu một cách có hệ thống và cố gắng tận dụng sức mạnh của LLM nguồn mở, đặc biệt là của Meta, cho mục đích quân sự", Sunny Cheung, cộng sự tại Jamestown Foundation, chuyên về các công nghệ mới nổi và sử dụng kép của Trung Quốc bao gồm AI, cho biết.

Meta đã chấp nhận phát hành mở nhiều mô hình AI của mình, bao gồm cả Llama. Công ty áp đặt các hạn chế đối với việc sử dụng chúng, bao gồm yêu cầu các dịch vụ có hơn 700 triệu người dùng phải xin giấy phép từ công ty.

Các điều khoản của công ty cũng cấm sử dụng các mô hình cho "quân sự, chiến tranh, công nghiệp hoặc ứng dụng hạt nhân, gián điệp" và các hoạt động khác chịu sự kiểm soát xuất khẩu quốc phòng của Hoa Kỳ, cũng như để phát triển vũ khí và nội dung nhằm mục đích "kích động và thúc đẩy bạo lực".

Tuy nhiên, vì các mô hình của Meta là công khai nên công ty ít có phương án để thực thi các điều khoản đó.

Để trả lời các câu hỏi của Reuters, Meta đã trích dẫn chính sách sử dụng được chấp nhận của mình và cho biết đã thực hiện các biện pháp để ngăn chặn việc sử dụng sai mục đích.

"Bất kỳ việc sử dụng mô hình nào của chúng tôi bởi Quân đội Trung Quốc đều là trái phép và trái với chính sách sử dụng được chấp nhận của chúng tôi", Molly Montgomery, giám đốc chính sách công của Meta, trả lời Reuters trong một cuộc phỏng vấn qua điện thoại.

Các nhà nghiên cứu Trung Quốc bao gồm Geng Guotong và Li Weiwei thuộc Trung tâm nghiên cứu thông tin khoa học quân sự của AMS và Viện công nghệ quốc phòng đổi mới quốc gia, cũng như các nhà nghiên cứu từ Viện công nghệ Bắc Kinh và Đại học Minzu.

"Trong tương lai, thông qua sự tinh chỉnh công nghệ, ChatBIT sẽ không chỉ được áp dụng vào phân tích tình báo mà còn ... lập kế hoạch chiến lược, đào tạo mô phỏng và ra quyết định chỉ huy sẽ được khám phá", báo cáo cho biết.

Bộ Quốc phòng Trung Quốc đã không trả lời yêu cầu bình luận, cũng như bất kỳ tổ chức hoặc nhà nghiên cứu nào.

Reuters không thể xác nhận khả năng và sức mạnh tính toán của ChatBIT, mặc dù các nhà nghiên cứu lưu ý rằng mô hình của họ chỉ kết hợp 100,000 bản ghi đối thoại quân sự, một con số tương đối nhỏ so với các LLM khác.

"Đó chỉ là một giọt nước giữa đại dương so với hầu hết các mô hình này (được) đào tạo bằng hàng nghìn tỷ mã thông báo, vì vậy ... điều đó thực sự khiến tôi đặt câu hỏi về những gì họ thực sự đạt được ở đây về các khả năng khác nhau", Joelle Pineau, phó chủ tịch của AI Research tại Meta và là giáo sư khoa học máy tính tại Đại học McGill ở Canada cho biết.

Nghiên cứu này diễn ra trong bối cảnh có một cuộc tranh luận gay gắt trong giới an ninh quốc gia và công nghệ Mỹ về việc liệu các công ty như Meta có nên công khai các mô hình của họ hay không.

Tổng thống Mỹ Joe Biden đã ký một sắc lệnh hành pháp vào tháng 10 năm 2023 nhằm quản lý các hoạt động phát triển AI, lưu ý rằng mặc dù có thể có những lợi ích đáng kể đối với sự đổi mới, nhưng cũng có "những rủi ro an ninh đáng kể, chẳng hạn như việc loại bỏ các biện pháp bảo vệ trong mô hình thuật toán".

Tuần này, Washington cho biết họ đang hoàn thiện các quy tắc để hạn chế đầu tư của Mỹ vào trí tuệ nhân tạo và các lĩnh vực công nghệ khác tại Trung Quốc có thể đe dọa đến an ninh quốc gia.

Người phát ngôn Lầu Năm Góc John Supple cho biết Bộ Quốc phòng thừa nhận rằng các mô hình nguồn mở có cả lợi ích và hạn chế, và rằng "chúng tôi sẽ tiếp tục theo dõi chặt chẽ và đánh giá năng lực của các đối thủ cạnh tranh".

Copyright © 2024 Cap Finance.

Các thông tin, số liệu, phân tích, nhận định (từ sau gọi chung là nội dung) được đăng tải trên website này hoặc các trang mạng xã hội thuộc sở hữu của Cap Finance là tài sản trí tuệ của Cap Finance hoặc được Cap Finance tổng hợp, biên soạn từ nhiều nguồn. Tuyên bố miễn trừ được áp dụng.