Giải thích về mạng thần kinh sâu: Đánh giá các phương pháp và ứng dụng

Giải thích về mạng thần kinh sâu: Đánh giá các phương pháp và ứng dụng

(Nguồn: https://ieeexplore.ieee.org/)

Tóm tắt: Với việc sử dụng học máy (Machine Learning - ML) rộng rãi và rất thành công trong công nghiệp và khoa học, ngày càng có nhiều nhu cầu về trí tuệ nhân tạo có thể giải thích được (explainable artificial intelligence - XAI). Do đó, khả năng diễn giải và các phương pháp giải thích để hiểu rõ hơn về các khả năng và chiến lược giải quyết vấn đề của ML phi tuyến, đặc biệt là các mạng nơron sâu, đang nhận được sự chú ý ngày càng nhiều. Trong bài viết này, chúng tôi nhằm mục đích: 1) cung cấp một cái nhìn tổng quan kịp thời về lĩnh vực mới nổi đang hoạt động này, tập trung vào các giải thích “hậu học” và giải thích các cơ sở lý thuyết của nó; 2) đưa các thuật toán khả năng diễn giải vào một bài kiểm tra cả từ quan điểm lý thuyết và đánh giá so sánh bằng cách sử dụng các mô phỏng mở rộng; 3) phác thảo các khía cạnh thực hành tốt nhất, tức là, làm thế nào để đưa các phương pháp diễn giải vào việc sử dụng ML tiêu chuẩn một cách tốt nhất; và 4) chứng minh việc sử dụng thành công XAI trong một lựa chọn đại diện cho các kịch bản ứng dụng. Cuối cùng, chúng tôi thảo luận về những thách thức và hướng đi có thể có trong tương lai của lĩnh vực ML nền tảng thú vị này.
PHẦN I. Giới thiệu
Mục tiêu chính của học máy (ML) là tìm hiểu các hệ thống quyết định chính xác, tương ứng, các yếu tố dự báo có thể giúp tự động hóa các nhiệm vụ, mà nếu không thì con người sẽ phải thực hiện. ML đã cung cấp vô số thuật toán đã chứng tỏ những thành công quan trọng trong khoa học và công nghiệp; các chương trình làm việc ML phổ biến nhất được coi là các phương pháp hạt nhân (ví dụ, [132], [163], [164], [190] và [194]), và đặc biệt trong thập kỷ qua, các phương pháp học sâu (ví dụ: [23 ], [52], [70], [107], [108], và [161]) đã đạt được mức độ phổ biến cao nhất. 
Khi ML ngày càng được sử dụng nhiều hơn trong các ứng dụng thế giới thực, một sự đồng thuận chung đã xuất hiện rằng chỉ riêng độ chính xác dự đoán cao có thể không đủ trong thực tế [28], [104], [159]. Thay vào đó, trong kỹ thuật thực tế của hệ thống, các tính năng quan trọng thường được coi là ngoài khả năng dự đoán xuất sắc là: 1) tính mạnh mẽ của hệ thống để đo lường các hiện tượng tạo tác hoặc sự nhiễu loạn của đối thủ [182]; 2) khả năng phục hồi các phân phối dữ liệu trôi dạt [49]; 3) khả năng đánh giá chính xác độ tin cậy của các dự đoán của chính nó [135], [139]; 4) khía cạnh an toàn và an ninh [21], [26], [84], [193]; 5) các yêu cầu pháp lý hoặc sự tuân thủ các chuẩn mực xã hội [54], [60]; 6) khả năng bổ sung kiến ​​thức chuyên môn của con người trong việc ra quyết định [82]; hoặc 7) khả năng tiết lộ cho người dùng những mối tương quan thú vị mà nó đã tìm thấy trong dữ liệu [88], [165].
Trực giao với nhiệm vụ tìm kiếm các mô hình ML tốt hơn và toàn diện hơn, trí tuệ nhân tạo có thể giải thích được (XAI) [18], [73], [112], [128], [159] đã phát triển như một trường con của ML tìm cách tăng cường đào tạo quy trình, các biểu diễn đã học và các quyết định với những lời giải thích có thể hiểu của con người. Một ví dụ là chẩn đoán y tế, trong đó các ví dụ đầu vào (ví dụ: hình ảnh mô bệnh học) đi kèm với các hiện vật khác nhau (ví dụ: bắt nguồn từ chất lượng hình ảnh hoặc các chú thích dưới mức tối ưu) về nguyên tắc không liên quan gì đến nhiệm vụ chẩn đoán, do số lượng dữ liệu sẵn có hạn chế, mô hình ML có thể thu thập cụ thể những tương quan giả này với mục tiêu dự đoán (ví dụ, [61] và [177]). Ở đây, khả năng diễn giải có thể chỉ ra các chiến lược quyết định bất thường hoặc khó xử trước khi tác hại gây ra trong việc sử dụng sau này như một công cụ chẩn đoán. 
Tương tự, điều cần thiết khi sử dụng ML trong khoa học là khả năng diễn giải một lần nữa vì, lý tưởng nhất, mô hình ML trong suốt — đã học được từ dữ liệu — có thể đã thể hiện kiến ​​thức khoa học mà sau đó sẽ cung cấp cái nhìn sâu sắc cho nhà khoa học; đôi khi, đây thậm chí có thể là cái nhìn khoa học mới lạ (xem [165]). Lưu ý rằng, trong nhiều ứng dụng khoa học, cho đến nay việc sử dụng mô hình tuyến tính là phổ biến nhất [151], ưu tiên khả năng diễn giải thường đi kèm với dự đoán (xem [63] và [117]). 
Tóm lại, có một sự thúc đẩy mạnh mẽ nhằm hiểu rõ hơn các hệ thống ML đang được sử dụng, và do đó, các thuật toán hộp đen ngày càng bị bỏ rơi cho nhiều ứng dụng. Sự đồng thuận ngày càng tăng này đã dẫn đến sự phát triển mạnh mẽ của một trường con của ML, cụ thể là XAI, nỗ lực tạo ra các phương pháp học tập phi tuyến tính minh bạch và cung cấp các quan điểm lý thuyết mới về mô hình ML, cùng với các công cụ thực tế mạnh mẽ để hiểu và giải thích tốt hơn các hệ thống AI. 
Trong bài viết đánh giá này, chúng tôi sẽ tóm tắt những phát triển thú vị gần đây, trình bày các lớp khác nhau của phương pháp XAI đã được đề xuất trong bối cảnh mạng nơ ron sâu, cung cấp những hiểu biết lý thuyết và nêu bật các phương pháp hay nhất hiện tại khi áp dụng các phương pháp này. Lưu ý, cuối cùng, chúng tôi không cố gắng xử lý theo kiểu bách khoa đối với tất cả các tài liệu XAI hiện có; thay vào đó, chúng tôi trình bày một quan điểm hơi thiên vị (và, khi làm như vậy, chúng tôi thường rút ra từ công việc của các tác giả). Đặc biệt, chúng tôi tập trung vào các phương pháp giải thích hậu kỳ lấy bất kỳ mô hình nào, điển hình là mô hình hoạt động tốt nhất và phân tích mô hình đó ở bước thứ hai để khám phá chiến lược quyết định của mô hình đó. Chúng tôi cũng cung cấp — theo hiểu biết tốt nhất của mình — tham khảo các tác phẩm liên quan khác để đọc thêm.

Bài viết đầy đủ: https://ieeexplore.ieee.org/document/9369420

Bình luận về bài viết này