Sử dụng trí tuệ nhân tạo (AI) an toàn trong cơ quan nhà nước để làm công cụ hỗ trợ trong công việc.

Xu hướng sử dụng trí tuệ nhân tạo (AI) trong công việc đã và đang được áp dụng trong rất nhiều lĩnh vực, ngành nghề. Không đứng ngoài cuộc, ngành Kiểm sát nhân dân cũng đã và đang xây dựng, nghiên cứu ứng dụng của trí tuệ nhân tạo trong một số hoạt động nghiệp vụ như "Trợ lý ảo" hỗ trợ Kiểm sát viên trong ngành Kiểm sát nhân dân và dự kiến sẽ được đưa vào sử dụng rộng rãi trong thời gian tới.

Không nằm ngoài xu hướng trên, nhiều cá nhân, đơn vị đã bước đầu nghiên sử dụng một số ứng dụng AI miễn phí hoặc có trả phí như ChatGPT, Gemini, Copilot, Gamma… để xây dựng báo báo, tạo bảng biểu, biểu đồ, thuyết trình, phân tích dữ liệu, tìm kiếm tài liệu và tra cứu thông tin.

 

I. RỦI RO KHI SỬ DỤNG MÔ HÌNH AI THƯƠNG MẠI TRONG CÔNG VIỆC

Việc cá nhân, tổ chức các mô hình AI để phân tích dữ liệu có thể mang lại hiệu quả cao, nhưng cũng tiềm ẩn một số rủi ro, đặc biệt liên quan đến bảo mật, quyền riêng tư, và tính chính xác. Dưới đây là một số rủi ro chính:

1. Rò rỉ dữ liệu nhạy cảm

Hầu hết các mô hình AI do công ty nước ngoài phát triển, nếu không được sử dụng qua nền tảng cục bộ/on-premise, có thể không đáp ứng tiêu chuẩn bảo mật quốc gia.

Nếu dữ liệu đầu vào chứa thông tin cá nhân, bí mật quốc gia, tài liệu mật hoặc số liệu thống kê của một quận/huyện, tỉnh/thành phố,… việc gửi dữ liệu đó tới một mô hình AI như ChatGPT, Copilot, Gemini, Grok… (nếu không được triển khai nội bộ) cóó thể dẫn đến rò rỉ thông tin.

2. Không kiểm soát được cách mô hình xử lý và lưu trữ dữ liệu

- Nếu dùng dịch vụ đám mây, dữ liệu có thể được lưu trữ hoặc xử lý ở máy chủ nước ngoài.

- Nguy cơ bị khai thác hoặc truy cập trái phép từ bên thứ ba (ví dụ: hacker hoặc chính nhà cung cấp dịch vụ AI).

3. Thiếu minh bạch và kiểm chứng trong kết quả

- Mô hình AI như ChatGPT, Copilot, Gemini, Grok… là mô hình đóng - không thể dễ dàng xác định hoàn toàn cách nó đưa ra kết luận.

- AI được xây dựng như cách con người học tập, nó học tập từ những dữ liệu được cung cấp vì vậy kết quả có thể sai lệch, thiên vị, hoặc không đầy đủ, ảnh hưởng đến việc ra quyết định nếu không có bước kiểm định chặt chẽ.

4. Phụ thuộc công nghệ nước ngoài

- Sử dụng ChatGPT hoặc mô hình tương tự (OpenAI, Google, Anthropic, v.v.)  có thể khiến cơ quan chính phủ phụ thuộc vào hạ tầng và thuật toán của nước ngoài, gây rủi ro trong trường hợp xung đột chính sách hoặc an ninh mạng.

5. Không tuân thủ hiến pháp, pháp luật

- Nếu dữ liệu thuộc phạm vi quản lý của Luật An ninh mạng, Luật Bảo vệ dữ liệu cá nhân (chưa ban hành), việc chuyển dữ liệu ra ngoài lãnh thổ có thể là hành vi vi phạm pháp luật.

6. Sai sót do hiểu nhầm ngữ cảnh hoặc thuật toán

- Mô hình AI không có khả năng hiểu sâu sắc về bối cảnh pháp lý, chính trị, văn hóa như con người, dễ dẫn đến phân tích sai hoặc gây hiểu nhầm.

Cách giảm thiểu rủi ro:

- Dùng mô hình AI nội bộ hoặc triển khai on-premise.

- Nhận biết dữ liệu nhạy cảm và loại bỏ hoặc ẩn danh dữ liệu khi gửi cho mô hình AI phân tích.

- Thiết lập quy trình kiểm duyệt và đánh giá kết quả của AI.

- Chỉ sử dụng AI cho mục đích hỗ trợ, không ra quyết định thay con người.

II. TÌNH HUỐNG MINH HOẠ

Tình huống 1: Viện kiểm sát sử dụng ChatGPT để phân tích lời khai nhân chứng, người phạm tội.

Bối cảnh:

Kiểm sát viên đang xử lý một vụ án hình sự phức tạp, với hàng trăm trang lời khai, biên bản hỏi cung và bằng chứng thu thập từ nhiều nguồn. Để tiết kiệm thời gian, cán bộ nghiệp vụ sử dụng ChatGPT để:

- Tóm tắt lời khai của các bị can và nhân chứng.

- Phân tích các mâu thuẫn trong lời khai.

- Gợi ý hướng điều tra hoặc luận tội.

Rủi ro phát sinh:

1. Rò rỉ thông tin mật: Nếu sử dụng phiên bản ChatGPT công khai (qua internet), dữ liệu lời khai – vốn là tài liệu mật hoặc tối mật – có thể bị rò rỉ ra ngoài hệ thống nhà nước, vi phạm nghiêm trọng quy định bảo mật.

2. Phân tích sai lệch: ChatGPT không hiểu hết ngữ cảnh pháp lý và tâm lý tội phạm như một điều tra viên. Nếu lời khai được diễn đạt không rõ ràng hoặc có tính mập mờ, mô hình có thể diễn giải sai lệch, dẫn đến nhận định sai về hành vi phạm tội.

3. Thiếu trách nhiệm pháp lý: Nếu kết quả phân tích từ AI ảnh hưởng đến việc truy tố, buộc tội, nhưng sau này bị chứng minh sai, trách nhiệm pháp lý sẽ khó quy kết, vì AI chỉ là công cụ, nhưng lại có thể ảnh hưởng tới ý trí của người trực tiếp tham gia tố tụng.

4. Vi phạm quy định về bảo mật và luật pháp: Việc xử lý dữ liệu cá nhân như tên tuổi, địa chỉ, tình trạng pháp lý của người phạm tội mà không được sự cho phép hợp pháp là vi phạm pháp luật và các quy định ngành.

Tình huống 2: Phân tích số thống kê về tội phạm để dự báo hành vi phạm tội

Bối cảnh:

Chuyên viên Viện kiểm sát cấp tỉnh được giao nhiệm vụ:

  • Tổng hợp số liệu thống kê về tội phạm trong 5 năm gần nhất trên địa bàn tỉnh.
  • Phân tích xu hướng phạm tội theo độ tuổi, giới tính, địa bàn, thời điểm...
  • Vẽ biểu đồ trực quan, dự đoán nguy cơ gia tăng tội phạm trong năm tới để đề xuất giải pháp phòng ngừa.

Chuyên viên dụng một nền tảng AI thương mại của nước ngoài qua internet để nhập dữ liệu và yêu cầu mô hình:

  • Vẽ biểu đồ tội phạm theo các nhóm tuổi.
  • Gợi ý mô hình dự đoán dựa trên xu hướng hiện tại.

Rủi ro phát sinh:

1. Rò rỉ dữ liệu thống kê nhạy cảm

- Dữ liệu đầu vào có thể chứa thông tin cụ thể như: phường, xã nào có nhiều vụ án ma túy, độ tuổi nhóm có hành vi xâm hại tình dục, hoặc tỷ lệ tái phạm cao.

- Đây là những dữ liệu chưa được công khai, mang tính nhạy cảm xã hội và an ninh địa phương – nếu bị lộ ra ngoài có thể gây:

+ Mất uy tín của cơ quan pháp luật.

+ Bị các tổ chức, cá nhân lợi dụng (truyền thông xuyên tạc, định kiến vùng miền).

+ Gây hoang mang trong dân cư bị “gắn mác” có tỷ lệ phạm tội cao.

2. Chuyển dữ liệu qua máy chủ nước ngoài mà không kiểm soát được

- Dữ liệu được gửi đến máy chủ đám mây nước ngoài, vi phạm Luật An ninh mạng và quy định về dữ liệu quốc gia.

- Một số nền tảng có thể sử dụng dữ liệu người dùng để huấn luyện lại mô hình, dẫn đến rủi ro lâu dài về quyền kiểm soát dữ liệu.

3. AI hiểu sai ngữ cảnh, đưa ra gợi ý sai lệch

- AI có thể gợi ý rằng “tội phạm gia tăng ở địa bàn A, nhóm tuổi B là mối đe dọa lớn” chỉ dựa trên con số thống kê, mà không xét đến yếu tố xã hội học, hoàn cảnh kinh tế, phong tục địa phương dễ dẫn đến định kiến vùng, miền, và đưa ra chính sách phòng ngừa sai hướng.

Tình huống 3: Một kiểm sát viên sử dụng Gemini để tra cứu tội danh

ví dụ như hỏi “hành vi A có phạm tội gì không?”, “mức hình phạt của tội danh B là bao nhiêu?” – có thể tiện lợi và nhanh chóng, nhưng cũng tiềm ẩn nhiều rủi ro nghiêm trọng, đặc biệt khi ứng dụng trong ngành tư pháp, điều tra, truy tố và xét xử.

Dưới đây là phân tích cụ thể các rủi ro trong tình huống này:

1. Thông tin không chính xác hoặc lỗi thời

- ChatGPT có thể không cập nhật đầy đủ hoặc kịp thời các văn bản pháp luật hiện hành, đặc biệt nếu:

+ Luật mới ban hành hoặc sửa đổi gần đây.

+ Có quy định chuyên ngành, Thống tư liên tịch hoặc Hướng dẫn do VKSND cấp trên ban hành mà không được phổ biến rộng rãi trên internet.

Kết quả tra cứu có thể dựa trên luật cũ, hoặc văn bản nước ngoài tương đồng, dẫn đến hiểu nhầm hoặc sai sót trong nhận định.

Ví dụ: Gemini có thể nói rằng hành vi “trộm cắp tài sản dưới 2 triệu đồng không bị xử lý hình sự” mà không đề cập đến các tình tiết định khung theo Điều 173 BLHS 2015 (VD: tái phạm, có tổ chức...).

2. Thiếu bối cảnh pháp lý cụ thể

- Không đủ Tình tiết vụ việc thực tế.

- Chính sách hình sự hiện hành.

- Hướng dẫn áp dụng pháp luật của TANDTC hoặc VKSNDTC.

Điều này dẫn đến việc AI suy đoán tội danh dựa trên ngôn ngữ tự nhiên, chứ không theo đúng cấu trúc yếu tố cấu thành tội phạm (khách thể, hành vi, hậu quả, lỗi, mối quan hệ nhân quả...).

3. Khả năng gây lệch lạc nhận thức pháp lý

- Nếu người tra cứu không có nền tảng pháp luật vững, họ dễ:

+ Tin vào kết quả tra cứu sai của AI.

+ Dẫn đến áp dụng sai tội danh, sai khung hình phạt, ảnh hưởng đến quyền lợi bị can/bị cáo hoặc kết luận điều tra.

- Đặc biệt nguy hiểm khi AI đưa ra thông tin nghe có vẻ rất hợp lý, có trích luật, nhưng thực ra sai bối cảnh.

4. Vi phạm nguyên tắc sử dụng công cụ phân tích pháp luật trong tố tụng

- Việc xác định tội danh phải dựa trên:

+ Bộ luật Hình sự (BLHS), Bộ luật Tố tụng Hình sự (BLTTHS).

+ Hướng dẫn nghiệp vụ.

+ Quan điểm của cấp trên.

- Việc dựa vào AI không được kiểm duyệt là vi phạm quy trình nghiệp vụ và tiềm ẩn rủi ro pháp lý cao.

5. Nguy cơ rò rỉ thông tin vụ án khi nêu tình huống cụ thể

Nếu Kiểm sát viên nhập tình huống cụ thể từ hồ sơ vụ án vào một mô hình AI để xác định tội danh, điều này có thể:

+Vô tình tiết lộ thông tin điều tra, vi phạm nguyên tắc bảo mật vụ án.

+ Bị lưu lại trên hệ thống của đơn vị cung cấp dịch vụ AI.

III. KHUYẾN NGHỊ SỬ DỤNG AI THƯƠNG MẠI AN TOÀN

  1. Cần triển khai hệ thống AI nội bộ, được huấn luyện trên dữ liệu pháp lý trong nước và được kiểm soát bởi Bộ Công an, TANDTC, VKSNDTC hoặc cơ quan tương đương. Có hệ thống bảo mật chuyên nghiệp, kết nối an toàn và có thể định danh người sử dụng để bảo mật tuyệt đối.
  2. Ẩn danh dữ liệu trước khi xử lý (không chứa địa danh cụ thể, thông tin nhận diện dân cư).
  3. bộ lọc kiểm duyệt nội dung đầu ra từ AI, luôn xác định kết quả từ AI chỉ nên là tài liệu tham khảo; cán bộ kiểm sát viên phải đánh giá độc lập và có trách nhiệm ra quyết định. Cán bộ kiểm sát phải chịu trách nhiệm cuối cùng.
  4. Ban hành quy định nội bộ về những nền tảng nào được phép sử dụng, dữ liệu nào được xử lý bằng AI, tránh tình trạng sử dụng công cụ AI thương mại một cách tùy tiện.
  5. Nếu cần tra cứu nhanh, nên dùng hệ thống pháp luật nội bộ và chính thống của ngành kiểm sát, tòa án hoặc các hệ thống pháp luật chuyên nghiệp (như Thư viện Pháp luật, VBQPPL Quốc hội, hoặc phần mềm Pháp điển điện tử).
  6. Tuyệt đối không nêu rõ dữ liệu vụ án hoặc thông tin bị can/bị cáo, người có quyền lợi nghĩa vụ liên quan khi hỏi AI thương mại.

Trần Đình Trường - Văn phòng VKSND thành phố Hải Phòng


Ứng dụng hỗ trợ nghiệp vụ
Tin tức
Thông tin cần biết
Thống kê truy cập
  • Đang online: 1
  • Hôm nay: 1
  • Trong tuần: 1
  • Tất cả: 1

Trang thông tin điện tử: VIỆN KIỂM SÁT NHÂN DÂN THÀNH PHỐ HẢI PHÒNG - Cơ quan chủ quản: VIỆN KIỂM SÁT NHÂN DÂN TỐI CAO
Địa chỉ: Lô 18A, Lê Hồng Phong, Hải An, TP Hải Phòng - Điện thoại: 02253.838308 - Fax: 02253.839072 - Email: vp_haiphong@vks.gov.vn
Trưởng ban biên tập: Phó Viện trưởng Lưu Xuân Sang
Số giấy phép: 03/GP-STTTT do Sở Thông tin và Truyền thông TP Hải Phòng cấp ngày 17 tháng 10 năm 2017 (Giấy phép có giá trị 10 năm)
Bản quyền thuộc về VKSND TP Hải Phòng - Thiết kế bởi VNPT | Quản trị

Chung nhan Tin Nhiem Mang