Thứ tư, 10/03/2021 - 13:17

Trí tuệ nhân tạo hàng đầu thế giới bị đánh lừa theo cách đơn giản ít ai ngờ

Dân trí

Hệ thống trí tuệ nhân tạo của OpenAI, một trong những hệ thống AI được đánh giá thông minh nhất thế giới hiện nay, có thể bị đánh lừa theo một cách đơn giản không ai ngờ đến.

Theo đó, các nhà khoa học làm việc tại phòng nghiên cứu của OpenAI đã phát hiện ra rằng hệ thống trí tuệ nhân tạo hiện đại của họ có thể bị đánh lừa một cách đơn giản bởi những mẫu giấy với chữ viết bên trên.

Chẳng hạn như hình minh họa bên dưới, khi cho hệ thống trí tuệ nhân tạo nhận diện một quả táo, nó có thể dễ dàng nhận ra đó là giống táo Granny Smith có nguồn gốc từ Úc. Tuy nhiên, khi dán lên trái táo này một tờ giấy với dòng chữ iPod, hệ thống trí tuệ nhân tạo của OpenAI lại nhận diện nhầm đối tượng trong ảnh là một chiếc iPod.

Trí tuệ nhân tạo hàng đầu thế giới bị đánh lừa theo cách đơn giản ít ai ngờ - 1

Trí tuệ nhân tạo nhận diện nhầm quả táo khi được dán nhãn "iPod".

Các nhà khoa học cho biết đây là một dạng tấn công vào hệ thống thị giác máy tính của trí tuệ nhân tạo, vốn được sử dụng để giúp hệ thống trí tuệ nhân tạo có thể nhận diện các vật thể và môi trường xung quanh mình. Với cách thức tấn công này, chỉ việc ghi tên của một vật thể vào một tờ giấy rồi dán lên một vật thể khác, hệ thống trí tuệ nhân tạo sẽ nhận diện nhầm vật thể mà nó nhìn thấy.

"Chúng tôi gọi các cuộc tấn công này là các cuộc tấn công đánh máy", các kỹ sư của OpenAI viết trên trang blog chính thức của hãng. "Bằng cách khai thác khả năng đọc văn bản mạnh mẽ của hệ thống trí tuệ nhân tạo, chúng tôi nhận thấy rằng ngay cả những bức ảnh chụp văn bản viết tay cũng có thể dễ dàng đánh lừa hệ thống".

Các nhà khoa học cho biết dạng tấn công đánh máy này rất nguy hiểm, nhất là với các hệ thống trí tuệ nhân tạo dựa vào thị giác máy tính. Chẳng hạn, hệ thống phần mềm tự lái trên các mẫu xe của Tesla có thể bị đánh lừa để tự động chuyển làn đường mà không cần cảnh báo chỉ bằng cách đặt một số nhãn dán trên đường. Các cuộc tấn công như thế này có thể xem là mối đe dọa nghiêm trọng đối với nhiều ứng dụng tích hợp trí tuệ nhân tạo, từ y tế đến quân sự.

Tuy nhiên, các nhà khoa học cũng trấn an rằng những cuộc tấn công bằng hình thức này hiện không đáng ngại, ít nhất là vào thời điểm hiện tại. Phần mềm tích hợp trí tuệ nhân tạo được OpenAI mang ra thử nghiệm ở trên có tên gọi CLIP, hiện chưa được triển khai trong bất kỳ sản phẩm thương mại nào.

Thông thường, để các hệ thống trí tuệ nhân tạo có thể hoạt động tốt cần phải trải qua một quá trình đào tạo mất rất nhiều thời gian và được giám sát một cách chặt chẽ, bằng cơ sở dữ liệu khổng lồ được chuẩn bị sẵn, từ hình ảnh đến văn bản. Tuy nhiên, CLIP là hệ thống trí tuệ nhân tạo mà OpenAI đang xây dựng, cho phép xác định được các đối tượng xung quanh mà không cần phải qua quá trình đào tạo và giám sát chặt chẽ, mà CLIP sẽ tự học các đối tượng từ 400 triệu hình ảnh và văn bản lấy được từ Internet, thay vì một cơ sở dữ liệu được chuẩn bị sẵn.

OpenAI cho biết CLIP có cách nhận diện và phản ứng đối với các vật thể tương tự như cách thức hoạt động của bộ não con người. Trong tương lai, điều này có thể giúp xây dựng những hệ thống thị giác máy tính phức tạp và có khả năng nhận diện vật thể một cách chính xác hơn, nhưng hiện tại, hệ thống này vẫn đang trong giai đoạn phát triển sơ khai nên vẫn còn tồn tại những lỗi và sự cố nhận diện nhầm.

T.Thủy
Theo DTrends/TC

Đáng quan tâm
Mới nhất