Tên bài viết gốc:  WHY BUSINESSES NEED EXPLAINABLE AI AND HOW TO DELIVER IT

Tại sao các doanh nghiệp cần AI có thể diễn giải — và cách thực hiện

Khi trí tuệ nhân tạo (AI) cung cấp nhiều quyết định hơn, hệ thống AI của các công ty phải được hiểu bởi người dùng và những người bị ảnh hưởng bởi việc sử dụng AI. Các hành động trong hai lĩnh vực có thể tối đa hóa lợi ích và giảm thiểu rủi ro của AI.

Các doanh nghiệp ngày càng dựa vào hệ thống trí tuệ nhân tạo (AI) để đưa ra các quyết định có thể ảnh hưởng đáng kể đến quyền cá nhân, sự an toàn của con người và các hoạt động kinh doanh quan trọng. Nhưng làm thế nào để những mô hình này đưa ra kết luận? Chúng sử dụng dữ liệu gì? Và chúng ta có thể tin tưởng vào kết quả không?

Câu trả lời cho những câu hỏi này là tất cả những gì về “khả năng giải thích” và việc hiểu đúng vấn đề đang trở nên cần thiết. Mặc dù nhiều công ty đã bắt đầu áp dụng các công cụ cơ bản để hiểu cách thức và lý do các mô hình AI đưa ra những thông tin chi tiết của chúng, nhưng việc sử dụng toàn bộ giá trị của AI đòi hỏi một chiến lược toàn diện. Nghiên cứu của chúng tôi cho thấy rằng các công ty nhận được lợi nhuận ròng lớn nhất từ ​​AI—những công ty phân bổ ít nhất 20 phần trăm EBIT cho việc sử dụng AI—có nhiều khả năng tuân thủ các phương pháp hay nhất cho phép diễn giải. Hơn nữa, các doanh nghiệp xây dựng “niềm tin kỹ thuật số” của người tiêu dùng thông qua các hoạt động như làm cho XAI (AI explainable) có nhiều khả năng đạt tốc độ tăng trưởng doanh thu và EBIT hàng năm từ 10% trở lên.

Khả năng giải thích ngày càng trở nên quan trọng, mặc dù vậy nó đang trở nên khó khăn hơn đáng kể. Các kỹ thuật mô hình hóa hiện đang thúc đẩy nhiều ứng dụng AI, chẳng hạn như học sâu và mạng lưới thần kinh, vốn đã khó hiểu đối với con người. Mặc dù AI có thể dự đoán và cung cấp nhiều thông tin, các công cụ học máy tiên tiến thường vẫn là một bí ẩn. Giải pháp không chỉ đơn giản là tìm ra những cách tốt hơn để truyền đạt cách thức hoạt động của một hệ thống; đúng hơn, câu trả lời là phát triển các công cụ và quy trình cho phép ngay cả chuyên gia chuyên sâu nhất cũng hiểu được kết quả và sau đó truyền đạt kết quả đó cho người khác.

Để làm sáng tỏ các hệ thống này và đáp ứng nhu cầu của khách hàng, nhân viên và cơ quan quản lý, các tổ chức cần nắm vững các nguyên tắc cơ bản về khả năng giải thích. Để đạt được sự thành thạo đó đòi hỏi phải thiết lập một khuôn khổ quản trị, áp dụng các phương pháp phù hợp và đầu tư vào bộ công cụ phù hợp.

Điều gì làm khả năng giải thích trở nên khó khăn

Khả năng giải thích là khả năng diễn đạt lý do tại sao một hệ thống AI đưa ra một quyết định, đề xuất hoặc dự đoán cụ thể. Việc phát triển khả năng này đòi hỏi phải hiểu cách thức hoạt động của mô hình AI và các loại dữ liệu được sử dụng để huấn luyện mô hình đó. Điều đó nghe có vẻ đơn giản, nhưng hệ thống AI càng tinh vi thì càng khó xác định chính xác cách thức nó đưa ra một kết luận nhất định. Công cụ AI trở nên “thông minh hơn” theo thời gian bằng cách liên tục nhập dữ liệu, đánh giá hiệu quả dự đoán của các tổ hợp thuật toán khác nhau và cập nhật mô hình kết quả. Chúng làm tất cả những điều này với tốc độ chóng mặt, đôi khi tạo ra kết quả chỉ trong vài phần nghìn giây.

Việc gỡ rối một cái nhìn sâu sắc cơ bản nhất và giải thích cách AI đi từ A đến B có thể tương đối dễ dàng. Nhưng khi các công cụ AI nội suy và tái nội suy dữ liệu, quá trình kiểm tra thông tin chi tiết trở nên khó theo dõi hơn.

Thực tế là những người dùng khác nhau của hệ thống AI có các yêu cầu khác nhau về khả năng giải thích làm phức tạp thêm vấn đề. Khi một ngân hàng sử dụng công cụ AI để hỗ trợ các quyết định tín dụng sẽ cần cung cấp cho những người tiêu dùng bị từ chối khoản vay lý do họ bị từ chối. Các nhân viên cho vay và những người thực hiện AI có thể cần nhiều thông tin chi tiết hơn để giúp họ hiểu các yếu tố rủi ro và trọng số được sử dụng để đưa ra quyết định nhằm đảm bảo mô hình được điều chỉnh một cách tối ưu. Ngoài ra, bộ phận quản lý rủi ro hoặc văn phòng thực hiện chiến lược đa dạng và hòa hợp có thể cần chứng minh rằng dữ liệu công cụ AI sử dụng không thiên vị đối với một số ứng viên nhất định. Các cơ quan quản lý và các bên liên quan khác cũng sẽ có những nhu cầu và lợi ích cụ thể.

Năm cách XAI có thể mang lại lợi ích cho các tổ chức

Các chuyên gia công nghệ, kinh doanh và rủi ro có thể nắm vững khả năng giải thích theo ít nhất năm cách (được trình bày dưới đây):

  1. Tăng năng suất. Các kỹ thuật giúp khả năng giải thích có thể phát hiện nhanh lỗi hoặc các vùng cần cải thiện, giúp các MLOps (machine learning operations) giám sát các hệ thống AI dễ dàng giám sát và bảo trì hệ thống AI một cách hiệu quả. Ví dụ: bằng cách hiểu các tính năng cụ thể dẫn đến đầu ra của mô hình, các nhóm kỹ thuật có thể xác nhận liệu các mẫu do mô hình xác định có áp dụng chung và phù hợp với các dự đoán trong tương lai hay liệu chúng có phản ánh dữ liệu lịch sử đặc biệt hoặc bất thường hay không.
  2. Xây dựng niềm tin và sự chấp nhận. Khả năng giải thích cũng rất quan trọng để xây dựng niềm tin. Khách hàng, cơ quan quản lý và công chúng nói chung đều cần cảm thấy tin tưởng rằng các mô hình AI đưa ra các quyết định quan trọng đang thực hiện một cách chính xác và công bằng. Tương tự như vậy, ngay cả những hệ thống AI tiên tiến nhất cũng sẽ trở nên vô dụng nếu người dùng cuối không hiểu cơ sở cho các đề xuất được cung cấp. Chẳng hạn, các nhóm bán hàng có xu hướng tin tưởng vào trực giác của họ hơn đối với một ứng dụng AI có các hành động phù hợp được đề xuất dường như đến từ một hộp đen. Các chuyên gia bán hàng có nhiều khả năng sẽ hành động theo đề xuất từ chương trình AI nếu họ hiểu lý do tại sao đề xuất đó được đưa ra.
  3. Hiển thị các can thiệp mới, có giá trị. Phá vỡ cách thức hoạt động của một mô hình cũng có thể giúp các công ty phát hiện và đưa ra các biện pháp can thiệp kinh doanh. Trong một số trường hợp, việc hiểu sâu về lý do của tại sao một dự đoán được đưa ra còn có nhiều giá trị hơn bản thân dự đoán hoặc đề xuất đó. Ví dụ: bản thân dự đoán về sự rời bỏ của khách hàng trong một phân khúc nhất định có thể hữu ích, nhưng việc giải thích lý do tại sao lại có khả năng xảy ra tình trạng này có thể giúp doanh nghiệp can thiệp hiệu quả nhất.

Đối với một công ty bảo hiểm ô tô, việc sử dụng các công cụ giải thích như giá trị SHAP cho thấy mức độ rủi ro lớn hơn có liên quan đến các tương tác nhất định giữa các thuộc tính của phương tiện và người lái xe. Công ty đã sử dụng những hiểu biết sâu sắc này để điều chỉnh các mô hình rủi ro của mình, sau đó hiệu suất của nó được cải thiện đáng kể.

  1. Đảm bảo AI mang lại giá trị kinh doanh. Khi nhóm kỹ thuật có thể giải thích cách thức hoạt động của hệ thống AI, nhóm kinh doanh có thể xác nhận rằng mục tiêu kinh doanh dự định đang được thực hiện và phát hiện các tình huống có trở ngại trong truyền đạt. Điều này đảm bảo rằng một ứng dụng AI được thiết lập để mang lại giá trị mong đợi.
  2. Giảm thiểu rủi ro pháp ly và rủi ro khác. Khả năng giải thích giúp các tổ chức giảm thiểu rủi ro. Các hệ thống AI vi phạm các chuẩn mực đạo đức, ngay cả khi vô tình, có thể gây ra sự theo dõi chặt chẽ của công chúng, giới truyền thông và cơ quan quản lý. Các nhóm pháp lý và rủi ro có thể sử dụng phần giải thích do nhóm kỹ thuật cung cấp, cùng với mục đích sử dụng kinh doanh, để xác nhận hệ thống luật pháp và quy định hiện hành phù hợp với các chính sách và giá trị nội bộ của công ty.

Trong một số lĩnh vực, khả năng giải thích là một điều cần thiết Ví dụ: một bản tin gần đây do Bộ Bảo hiểm California ban hành yêu cầu các công ty bảo hiểm biện minh cho bất kỳ biện pháp tiêu cực nào thực hiện dựa trên các thuật toán phức tạp. Khi việc sử dụng AI phát triển, các tổ chức có thể mong đợi nhiều quy tắc hơn liên quan đến khả năng giải thích. Các quy định mới, chẳng hạn như dự thảo quy định AI của Liên minh Châu Âu, có thể bao gồm các quy trình tuân thủ khả năng giải trình cụ thể. Ngay cả khi không được ủy quyền cụ thể, các công ty sẽ cần xác nhận rằng bất kỳ công cụ nào được sử dụng để thực hiện các hành động như quyết định tín dụng đều tuân thủ luật chống phân biệt đối xử hiện hành, cũng như luật cấm các hành vi phân biệt đối xử hoặc lừa đảo.

Làm thế nào các doanh nghiệp có thể thực hiện XAI

Các tổ chức xây dựng một khuôn khổ cho khả năng giải thích và có được các công cụ hỗ trợ phù hợp sẽ có vị trí tốt hơn để nắm bắt toàn bộ giá trị của học sâu và các phát triển khác trong AI. Chúng tôi đề nghị các tổ chức bắt đầu bằng cách đưa khả năng giải thích là một trong những nguyên tắc chính trong hướng dẫn AI tiên tiến. Sau đó, các tổ chức có thể vận hành nguyên tắc này bằng cách thành lập một ủy ban quản trị AI để thiết lập các tiêu chuẩn và hướng dẫn cho các nhóm phát triển AI, bao gồm các hướng dẫn về quy trình đánh giá theo trường hợp sử dụng cụ thể và bằng cách đầu tư vào nhân tài, công nghệ, nghiên cứu và đào tạo phù hợp.

Thành lập ủy ban quản trị AI để hướng dẫn các nhóm phát triển AI

Việc thành lập một ủy ban quản trị AI bao gồm việc tuyển dụng các thành viên và xác định phạm vi công việc. Khả năng giải thích và đánh giá rủi ro của các trường hợp sử dụng AI có thể phức tạp, đòi hỏi sự hiểu biết về mục tiêu kinh doanh, người dùng mục tiêu, công nghệ và bất kỳ yêu cầu pháp lý hiện hành nào. Vì lý do này, các tổ chức cần triệu tập một nhóm các chuyên gia có kinh nghiệm đa lĩnh vực, bao gồm các nhà lãnh đạo doanh nghiệp, chuyên gia kỹ thuật, chuyên gia pháp lý và rủi ro. Việc đưa ra các quan điểm đa dạng từ bên trong và bên ngoài cũng có thể giúp công ty kiểm tra xem các diễn giải được phát triển để hỗ trợ mô hình AI có trực quan và hiệu quả đối với các đối tượng khác nhau hay không.

Nhiệm vụ chính của ủy ban sẽ là thiết lập các tiêu chuẩn về khả năng giải thích của AI. Là một phần của quy trình thiết lập tiêu chuẩn, các ủy ban quản trị AI hiệu quả thường thiết lập phân loại rủi ro có thể được sử dụng để phân loại mức độ nhạy của các trường hợp sử dụng AI khác nhau. Phân loại chứa các liên kết đến hướng dẫn về tiêu chuẩn và cho các tình huống sử dụng khác nhau. Ví dụ: có cần giải thích để đáp ứng các yêu cầu pháp lý hay chỉ cần đưa ra một bản tóm tắt về chức năng để hỗ trợ việc áp dụng là đủ? Nguyên tắc phân loại cũng giúp làm rõ khi có yêu cầu chuyển lên hội đồng đánh giá hoặc pháp lý.

Vì mỗi trường hợp sử dụng AI có thể đưa đến một loạt rủi ro và yêu cầu pháp lý khác nhau liên quan đến khả năng giải thích, nên các tổ chức nên thiết lập một quy trình để các nhóm phát triển mô hình đánh giá từng trường hợp sử dụng. Quá trình này đưa tổ chức lên vị trí tốt hơn để kiểm soát những rủi ro này và thu được giá trị từ AI. Theo dõi kết quả của những đánh giá này trong kho lưu trữ trung tâm giúp đảm bảo tổ chức có thể giám sát việc sử dụng các hệ thống AI để tuân thủ luật pháp và tuân thủ các nguyên tắc trách nhiệm AI.

Là một phần của quy trình xem xét, các nhóm sẽ cần cân nhắc xem liệu có vượt quá các yêu cầu về khả năng giải thích cơ bản hay không, dựa trên giá trị tiềm năng thu được từ, chẳng hạn như sự tin tưởng, sự chấp nhận hoặc năng suất cao hơn. Trong một số trường hợp, có thể cần đánh đổi giữa khả năng giải thích và độ chính xác. Ví dụ: đơn giản hóa của mô hình AI có thể cải thiện lòng tin của người dùng, nhưng trong một số trường hợp—không phải tất cả—sự thay đổi có thể khiến mô hình kém chính xác hơn. Khi có sự đánh đổi, các nhóm cần đo lường các cân nhắc cạnh tranh, bao gồm mọi yêu cầu quy định và chuyển lên lãnh đạo nếu cần.

Các nhóm có thể tự giải quyết những sự đánh đổi này. Đôi khi, họ có thể thiết kế ngược các yếu tố ảnh hưởng đến kết quả dự đoán cho các mô hình AI tiên tiến bằng cách theo dõi hiệu suất của mô hình và xem xét kỹ lưỡng. Sau đó, họ có thể cố gắng tái tạo mô hình phức tạp bằng các phương pháp thống kê đơn giản hơn và dễ hiểu hơn, chẳng hạn như hồi quy logistic. Trong một số trường hợp, kết quả sẽ là một mô hình có hiệu suất cao tương đương với các kết quả đầu ra có thể giải thích được.

Đầu tư vào nhân tài, công nghệ giải thích, nghiên cứu và đào tạo

Tốc độ thay đổi nhanh chóng của công nghệ và luật pháp trong lĩnh vực khả năng giải thích khiến các công ty phải thuê đúng nhân tài, đầu tư vào các công cụ phù hợp, tham gia nghiên cứu tích cực và tiến hành đào tạo liên tục.

Các tổ chức có thành tính tốt phát triển một chiến lược tài năng để hỗ trợ quản trị AI trong toàn doanh nghiệp. Các công ty này tìm cách giữ chân các nhân viên làm về hợp pháp và chịu rủi ro, những người có thể tham gia tích cực và có ý nghĩa với doanh nghiệp và các nhà công nghệ để điều hướng các quy định hiện hành, đáp ứng kỳ vọng của người tiêu dùng và các sản phẩm cốt lõi “thích ứng với tương lai” (bao gồm các tính năng và bộ dữ liệu) khi luật phát triển. Tương tự, các công ty được hỗ trợ để thuê các nhà công nghệ quen thuộc với các vấn đề pháp lý hoặc tập trung vào đạo đức công nghệ.

Đầu tư vào công nghệ có thể diễn giải nên nhằm mục đích có được các công cụ phù hợp để đáp ứng nhu cầu do các nhóm phát triển xác định trong quá trình đánh giá. Ví dụ: công cụ tiên tiến hơn có thể giải thích chắc chắn hơn trong tình hình mà nếu không các nhóm sẽ phải thỏa hiệp về độ chính xác. Mặc dù chi phí ban đầu của các giải pháp riêng biệt có thể cao hơn, nhưng đôi khi về lâu dài sẽ mang lại hiệu quả vì chúng có thể tính đến bối cảnh mà mô hình đang được triển khai, bao gồm cả người dùng mục tiêu và bất kỳ yêu cầu pháp lý hoặc quy định nào. Các công ty đang xem xét sử dụng các công cụ mã nguồn mở và sẵn có cần hiểu mọi hạn chế nào của các tùy chọn này. Ví dụ: một số công cụ giải thích dựa trên các giải thích hậu kiểm để suy ra các yếu tố liên quan chỉ dựa trên việc xem xét đầu ra của hệ thống. Nếu cách tiếp cận hạn chế này mang lại lời giải thích kém chính xác về các yếu tố nguyên nhân ảnh hưởng đến kết quả, thì niềm tin của người dùng vào đầu ra của hệ thống có thể không được đảm bảo

Nghiên cứu là một yêu cầu liên tục vì các yêu cầu pháp lý và quy định, cũng như kỳ vọng của người tiêu dùng và các tiêu chuẩn của ngành, đang thay đổi nhanh chóng. Các ủy ban quản trị AI sẽ muốn chủ động giám sát và nếu có thể, tiến hành nghiên cứu của riêng họ trong lĩnh vực này để đảm bảo việc học hỏi và phát triển kiến ​​thức liên tục. Ủy ban cũng nên thiết lập một chương trình đào tạo để đảm bảo nhân viên trong toàn tổ chức hiểu và có thể áp dụng những phát triển mới nhất trong lĩnh vực này.

Mọi người sử dụng những gì họ am hiểu và tin tưởng. Điều này đặc biệt đúng với AI. Các doanh nghiệp làm việc hiển thị cách hiểu biết và đề xuất về AI của họ dễ dàng sẽ có lợi thể, không chỉ với người dùng AI của tổ chức mà còn với các cơ quan quản lý và người tiêu dùng — và về mặt lợi nhuận của họ

GIỚI THIỆU VỀ CÁC TÁC GIẢ

Liz Grennan là đối tác liên kết tại văn phòng McKinsey’s Stamford, Andreas Kremer là đối tác tại văn phòng Berlin, Alex Singla là đối tác cấp cao tại văn phòng Chicago và Peter Zipparo là Phó tổng Cố vấn, có trụ sở tại văn phòng New York.

Nguồn bài viết gốc: https://www.mckinsey.com/capabilities/quantumblack/our-insights/why-businesses-need-explainable-ai-and-how-to-deliver-it

_____________________________________
Bài viết này được chọn lọc, biên dịch,
thiết kế và biên tập bởi một Nhóm IPLer của
Học bổng Lãnh đạo Khai phóng IPL Khóa 7

Trần Hồng Hạnh
Nguyễn Đức Hiếu
Lê Hoàng Mạnh Hùng
Nguyễn Thị Phương Thảo
Đặng Minh Quân
Tô Nghiệp Siêu
Trịnh Quang Đồng Thảo