Adversarial example là những mẫu được tạo ra với những thao tác tinh vi nhưng mắt người không thể nào chú ý thấy được đã biến nó thành một hình ảnh trọn vẹn khác dưới nhỏ mắt kỹ thuật số của thuật toán machine learning.
Bạn đang xem: Adversarial là gì
Adversarial examples khai thác cách thức hoạt động của các thuật toán trí tuệ nhân tạo để phá vỡ nó. Vào vài năm qua, adversarial examples đã trở thành một lĩnh vực nghiên cứu tích cực khi vai trò của AI tiếp tục vạc triển mạnh trong nhiều ứng dụng công nghệ. Càng ngày nhiều mối lo ngại rằng những lỗ hổng trong những hệ thống học máy gồm thể bị khai thác cho mục đích xấu. Khi bạn yêu cầu một người mô tả bí quyết họ phân phát hiện ra một bé gấu trúc trong một bức ảnh, họ tất cả thể kiếm tìm kiếm những đặc điểm ngoại hình như tai tròn, các mảng đen quanh mắt, mõm, da gồm lông… Hoặc cũng có thể đưa ra các đặc điểm không giống chẳng hạn như môi trường sống hay dáng vẻ cơ thể… Nhưng đối với một mạng nơ-ron nhân tạo, miễn là việc chạy những giá trị px thông qua phương trình cung cấp câu trả lời đúng, nó sẽ tin rằng những gì nó đang thấy thực sự là một bé gấu trúc.
Adversarial Example: Hình ảnh được thêm nhiễu để đánh lừa mạng
" href="https://amiralmomenin.net/tu-dien-thuat-ngu/no-ron/" target="_blank" data-gt-translate-attributes="<"attribute":"data-cmtooltip", "format":"html">">nơ ron.
Nói cách khác, bằng phương pháp điều chỉnh những giá trị pixel trong hình ảnh theo một phương pháp phù hợp, bạn gồm thể đánh lừa AI. Vào trường hợp adversarial example nhưng mà bạn đã thấy ở đầu bài bác viết, các nhà nghiên cứu AI đã thêm một lớp nhiễu vào hình ảnh. Sự vắt đổi này khó có thể quan sát thấy được bằng mắt thường. Nhưng lúc số pixel mới đi qua mạng nơ-ron, bọn chúng sẽ tạo ra kết quả là Chris Evans. Vào vài năm qua, đã có rất nhiều nghiên cứu về hoạt động cùng tác dụng của học máy đối nghịch. Năm 2016, các nhà nghiên cứu tại Đại học Carnegie Mellon đã đến thấy việc đeo một chiếc kính đặc biệt gồm thể đánh lừa những mạng lưới thần kinh nhận dạng khuôn mặt để khiến họ trông giống với những người nổi tiếng.
Adversarial Example: Biển báo Stop gồm thể trở nên vô hình với một số cụ đổi nhỏ.
Trong một trường hợp khác, các nhà nghiên cứu tại Samsung và các trường Đại học Washington, Michigan và UC Berkley đã chỉ ra rằng bằng giải pháp thực hiện những chỉnh sửa nhỏ bên trên biển báo “STOP”, họ bao gồm thể biến chúng trở nên vô hình trước các thuật toán thị giác máy tính của xe cộ tự lái. Hacker có thể sử dụng adversarial attack này để buộc một chiếc xe pháo tự lái vào nguy hiểm và tất cả thể gây nên tai nạn. Một trong những cách chính để bảo vệ các mô hình học đồ vật chống lại adversarial examples đó là “adversarial training”. Trong adversarial training, những kỹ sư của thuật toán học thiết bị sẽ đào tạo lại các quy mô của họ về adversarial examples để tạo nên chúng trở bắt buộc mạnh mẽ hơn trong việc chống lại sự nhiễu loạn dữ liệu. Mặc dù adversarial training là một quy trình dài và tốn kém, mỗi ví dụ đào tạo phải được thăm dò để tìm ra các điểm yếu của adversarial, sau đó mô hình phải được đào tạo lại bên trên tất cả các ví dụ đó. Những nhà khoa học vẫn đang phân phát triển các phương pháp để tối ưu hóa quá trình phát hiện cùng vá những điểm yếu của adversarial vào các mô hình học máy. Mặt cạnh đó, các nhà nghiên cứu AI cũng đang tìm cách để tất cả thể giải quyết những lỗ hổng adversarial trong những hệ thống
" href="https://amiralmomenin.net/tu-dien-thuat-ngu/deep-learning/" target="_blank" data-gt-translate-attributes="<"attribute":"data-cmtooltip", "format":"html">">deep learning (tạm gọi là học sâu) ở cấp độ cao hơn.
Xem thêm: Giá Trị Lớn Nhất Giá Trị Nhỏ Nhất Của Hàm Số Lop 12, Giá Trị Lớn Nhất Của Hàm Số
Adversarial examples cũng là một lời nhắc nhở nhỏ người rõ ràng về việc trí tuệ nhân tạo và trí óc nhỏ người khác nhau như thế nào. Nếu bạn thích bài bác viết này, hãy phân chia sẻ nó với những người thân mật và hãy thường xuyên tróc nã cập trang web để tất cả những tin tức mới nhất về lĩnh vực.