English: Applying artificial intelligence for social good
Áp dụng trí tuệ nhân tạo để phục vụ xã hội (P1)
Khắc phục nút thắt, đặc biệt về dữ liệu và tài năng cho trí tuệ nhân tạo
Trong khi ảnh hưởng về mặt xã hội của AI là có khả năng rất lớn, những tắc nghẽn nhất định phải được vượt qua, thậm chí là còn tiềm tàng để nhận ra. Về tổng thể, chúng tôi nhận diện 18 nút thắt tiềm tàng thông qua các phỏng vấn với chuyên gia trong lĩnh vực xã hội và với các nhà nghiên cứu và thực hành AI. Chúng tôi nhóm lại những vấn đề nút thắt này thành 4 loại theo mức độ quan trọng.
Những nút thắt quan trọng nhất là khả năng tiếp cận dữ liệu, sự thiếu hụt tài năng để phát triển những giải pháp AI, và những thách thức trong quá trình thực hiện (hình 6).
Dữ liệu cần cho những ứng dụng có tác động xã hội có thể không dễ tiếp cận được
Khả năng truy cập dữ liệu vẫn còn là một thử thách trọng yếu. Giải quyết việc này yêu cầu một sự sẵn lòng, bởi cả tổ chức tư và công, để làm cho dữ liệu sẵn có. Phần lớn dữ liệu quan trọng hoặc hữu ích cho phục vụ xã hội tốt đang ở trong những bàn tay tư nhân hoặc trong những tổ chức công cộng mà có thể không sẵn lòng để chia sẻ dữ liệu của họ. Những chủ sở hữu dữ liệu này bao gồm các công ty viễn thông và vệ tinh; nền tảng truyền thông xã hội; các tổ chức tài chính (để biết chi tiết ví dụ như lịch sử tín dụng); bệnh viện, bác sỹ, và các nhà cung cấp y tế khác (thông tin y tế); và chính phủ (bao gồm thông tin về thuế của cá nhân). Doanh nhân xã hội và các tổ chức phi chính phủ (NGOs) có thể có sự khó khăn tiếp cận những bộ dữ liệu này bởi vì những quy định trong sử dụng dữ liệu, mối quan ngại về tính riêng tư, và thói quen quan liêu. Dữ liệu cũng có thể có giá trị kinh doanh và có thể có sẵn trên thị trường để có thể mua. Ghi nhận những thử thách trong việc phân biệt giữa sử dụng cho mục đích xã hội và mục đích thương mại, giá cả có thể quá cao cho NGOs và những tổ chức khác muốn triển khai dữ liệu cho những lợi ích xã hội.
Thiếu hụt chuyên gia tài năng về AI để phát triển và đào tạo các mô hình AI
Hơn một nửa những trường hợp ứng dụng AI trong thư viện của chúng tôi có thể làm các giải pháp đòn bẩy tạo ra bởi những người với ít kinh nghiệm AI hơn. Những trường hợp sử dụng còn lại phức tạp hơn như là kết quả của một sự kết hợp của các yếu tố, mà thay đổi với các trường hợp cụ thể. Những điều này cần chuyên gia AI cấp cao – những người có thể có kinh nghiệm làm Tiến sĩ hoặc kinh nghiệm đáng kể với công nghệ. Những người như vậy đang rất thiếu thốn.
Những trường hợp sử dụng đầu tiên yêu cầu ít chuyên gia AI, những người xây dựng giải pháp cần thiết là nhà khoa học dữ liệu hoặc những nhà phát triển phần mềm với kinh nghiệm AI nhưng không cần thiết có chuyên môn cao. Hầu hết những trường hợp ứng dụng này là những mô hình ít phức tạp hơn mà dựa vào chế độ đơn của dữ liệu đầu vào.
Sự phức tạp của những vấn đề tăng đáng kể khi trường hợp ứng dụng AI yêu cầu một vài khả năng của AI để làm việc cùng nhau một cách gắn bó, cũng như nhiều đầu vào kiểu dữ liệu khác nhau. Sự tiến triển trong phát triển những giải pháp cho những trường hợp này sẽ do đó yêu cầu tài năng cấp cao, mà cầu vượt xa nguồn cung và sự cạnh tranh là dữ dội.
Thử thách hoàn thành ‘dặm cuối’ cũng là một nút thắt đáng kể để triển khai AI phục vụ xã hội.
Kể cả khi không cần đến chuyên gia cấp cao về AI, NGOs và các tổ chức xã hội khác có thể đối mặt các vấn đề kỹ thuật, giờ làm thêm, triển khai và duy trì các mô hình AI mà yêu cầu liên tục tiếp cận một vài cấp độ của kỹ năng liên quan đến AI. Tài năng yêu cầu có thể có phạm vi từ các kỹ sư có thể duy trì hoặc cải thiện các mô hình đến các nhà khoa học dữ liệu người có thể trích xuất đầu ra có ý nghĩa từ chúng. Bàn giao thất bại khi nhà cung cấp của các giải pháp triển khai triển khai kỹ thuật và sau đó biến mất mà không đảm bảo rằng một kế hoạch bền vững được đặt ra.
Các tổ chức cũng có thể có khó khăn diễn giải những kết quả của một mô hình AI. Kể cả nếu một mô hình đạt được một mức độ mong muốn về sự chính xác trong dữ liệu kiểm tra, trường hợp mới hoặc thất bại không lường trước thường xuất hiện trong kịch bản đời thực. Hiểu được rằng làm sao giải pháp hoạt động như thế nào có thể yêu cầu một nhà khoa học dữ liệu hoặc một “phiên dịch”. Nếu không có ai, NGO hoặc tổ chức thực hiện khác có thể tin cậy vào những kết quả của mô hình quá nhiều: hầu hết các mô hình AI không thể thực hiện chính xác mọi lúc, và rất nhiều được miêu tả như “mỏng manh” (đó là, mô hình AI thất bại khi những đầu vào của chúng đi lạc theo cách cụ thể từ những bộ dữ liệu mà chúng được luyện tập)
Những rủi ro cần được quản lý
Những công cụ và công nghệ của AI có thể bị sử dụng sai bởi chính quyền và những người có quyền truy cập vào AI, vì vậy những nguyên tắc cho sử dụng AI phải được thành lập. Những giải pháp của AI cũng có thể vô ý làm hại đến người đáng lẽ mà AI sẽ giúp đỡ.
James Manyika, chủ tịch của học viện Mckinsey toàn cầu, chia sẻ vì sao AI chứa cơ hội lớn và những rủi ro có thể đưa đến.
Một phân tích trong thư viện của chúng tôi tìm thấy rằng 4 thể loại rủi ro chính đặc biệt có liên quan khi những giải pháp AI được tận dụng cho phục vụ xã hội: thiên vị và công bằng, sự riêng tư, ứng dụng an toàn và an ninh, và “khả năng giải thích” (khả năng để nhận biết đặc tính hoặc tập dữ liệu để dẫn đến một quyết định đặc biệt hoặc sự tiên đoán nào đó).
Tính Thiên vị trong AI có thể là lâu dài và làm trầm trọng thêm những định kiến và sự bất bình đẳng vốn có trong xã hội, ảnh hưởng đến đối tượng dễ bị tổn thương và khuếch đại định kiến văn hóa vốn có. Thiên vị của loại này có thể xảy ra thông qua dữ liệu lịch sử đã có vấn đề, bao gồm những mẫu dữ liệu không mang tính đại diện hoặc không chính xác. Ví dụ, rủi ro dựa trên AI để cho điểm những mục liên quan đén hình sự có thể được đào tạo trong lịch sử dữ liệu tội phạm bao gồm những thiên vị (giữa những thứ khác, người Mỹ gốc Phi có thể được dán nhãn bất công bởi AI là rủi ro lớn). Kết quả là, rủi ro cho điểm bởi AI có thể làm trầm trọng sự thiên vị này.
Một vài ứng dụng AI đã thể hiện sự chênh lệch lớn trong độ chính xác dựa vào dữ liệu sử dụng để đào tạo thuật toán; ví dụ, kiểm tra của phần mềm phân tích khuôn mặt thể hiện tỷ lệ sai số 0.8% cho đàn ông da trắng; nhưng cho phụ nữ da đen tỷ lệ sai số là 34.7%.
Một nguồn chính của sự thiên vị có thể là chất lượng dữ liệu kém – ví dụ, đó là khi dữ liệu trong hồ sơ việc làm trong quá khứ được sử dụng để nhận biết những ứng viên tương lai. Một công cụ tuyển dụng chạy bởi AI được sử dụng gần đây bởi một công ty công nghệ bị cấm sau một vài năm thử nghiệm. Công cụ xuất hiện thị thiên vị có tính hệ thống đối với phụ nữ, mà có kết quả từ các mẫu trong dữ liệu đào tạo từ lịch sử của các năm tuyển dụng. Để chống lại những thiên vị này, đội ngũ khoa học dữ liệu lành nghề và đa dạng nên tính đến những vấn đề tiềm tàng trong dữ liệu đào tạo hoặc các mẫu thông minh từ chúng.
Vi phạm quyền riêng tư của thông tin cá nhân có thể gây tổn hại
Mối quan ngại liên quan đến dữ liệu cá nhân riêng tư nhạy cảm đã đầy rẫy trong AI. Khả năng để làm dịu bớt những mối quan ngại này có thể giúp tăng tốc sự chấp nhận của công chúng để sử dụng rộng rãi AI bởi các tổ chức phi lợi và có nhuận là như nhau. Thông qua những hệ thống AI nhiều lỗ hỗng, rủi ro là tài chính, thuế, sức khỏe và những hồ sơ tương tự đó có thể trở nên dễ tiếp cận đến những người không có nhu cầu chính đáng để truy cập chúng.
Điều đó có thể gây ra sự hổ thẹn và, có khả năng, gây hại.
Sử dụng an toàn và bảo mật là điều cần thiết cho ứng dụng tốt của AI để phục vụ xã hội
Đảm bảo rằng những ứng dụng của AI được sử dụng một cách an toàn và có trách nhiệm là một điều kiện tiên quyết thiết yếu cho sự triển khai rộng rãi của AI phục vụ cho những mục đích xã hội. Tìm kiếm ứng dụng cho xã hội với những công nghệ nguy hiểm sẽ mâu thuẫn với sứ mệnh cốt lõi và cũng có thể châm ngòi cho một phản ứng ngược lại, khi mà có một số lượng người lớn có khả năng liên quan. Bởi công nghệ có thể ảnh hưởng đến cuộc sống và thịnh vượng, sẽ rất quan trọng để có cơ chế an toàn, bao gồm sự tuân thủ luật pháp và quy định hiện hành. Ví dụ, nếu AI chẩn đoán sai bệnh nhân trong bệnh viện mà không có một cơ chế an toàn đưa ra – đặc biệt nếu những hệ thống này được kết nối trực tiếp đến quá trình điều trị – kết quả có thể là thảm họa. Khung chương trình co trách nhiệm giải trình và trách nhiệm đối với tác hại do AI gây ra vẫn đang phát triển
Những quyết định đưa ra bởi những mô hình AI phức tạp sẽ cần để trở nên dễ giải thích hơn
Giải thích bằng thuật ngữ của con người những kết quả từ những mô hình AI lớn, phức tạp vẫn còn là một trong những thử thách then chốt để có sự chấp thuận bởi người dùng và cơ quan quản lý. Mở “hộp đen” AI để chỉ ra những quyết định được làm ra như thế nào, cũng như yếu tố, tính năng và bộ dữ liệu nào là quyết định và cái nào là không, sẽ quan trọng cho áp dụng AI trong xã hội. Điều đó sẽ đặc biệt đúng cho các bên liên quan ví dụ như NGOs, tổ chức sẽ yêu cầu một cấp độ nền tảng của sự minh bạch và có lẽ sẽ muốn đưa ra những giải thích rõ ràng của những quyết định được đưa ra. Có khả năng giải thích đặc biệt quan trọng cho những trường hợp sử dụng liên quan đến quyết định về cá nhân, và đặc biệt, cho những trường hợp liên quan đến công lý và nhận dạng tội phạm, vì một người bị buộc tội phải có khả năng kháng cáo quyết định một cách có ý nghĩa.
Giảm thiểu rủi ro
Những chiến lược giảm nhẹ hiệu quả thường liên quan đến “con người trong vòng lặp” can thiệp: con người liên quan trong quyết định hoặc vòng phân tích để xác thực các mô hình và kiểm tra kết quả từ các giải pháp AI. Những can thiệp này có thể gọi cho các nhóm chức năng chéo, bao gồm các chuyên gia tên miền, kỹ sư, quản lý sản phẩm, nhà nghiên cứu trải nghiệm người dùng, chuyên gia pháp lý và những người khác, để cảnh báo và tiếp cận những hậu quả có thể không lường trước.
Phân tích con người của dữ liệu được sử dụng để luyện các mô hình có thể có khả năng để nhận biết các vấn đề ví dụ như tình thiên vị và thiếu tình đại diện. Công bằng và “những đội đỏ” về an ninh có thể tiến hành kiểm tra giải pháp, và trong một vài trường hợp bên thứ ba có thể mang đến các giải pháp thử nghiệm bằng việc sử dụng một phương pháp đối phó. Để giảm thiểu loại thiên vị này, các nhà nghiên cứu trường đại học đã chứng minh các phương pháp ví dụ như lấy mẫu dữ liệu với một sự thấu hiểu của sự thiên vị vốn có của họ và sáng tạo tập dữ liệu tổng hợp dựa trên số liệu thống kê đã biết.
Bảo vệ để ngăn người sử dụng khỏi việc tin tưởng mù quáng vào AI có thể được đưa ra. Trong dược phẩm, ví dụ, chẩn đoán sai có thể hủy hoại bệnh nhân. Những vấn đề bao gồm kết quả dương tính giả mà gây ra lo âu; những điều trị sai hoặc không cần thiết hoặc phẫu thuật; hoặc, thậm chí tệ hơn, âm tính sai, vì vậy bệnh nhân không thể nhận được chẩn đoán chính xác cho đến khi bệnh đã đến giai đoạn cuối.
Công nghệ có thể tìm thấy một vài giải pháp cho những thử thách này, bao gồm khả năng giải thích. Ví dụ, phương pháp tiếp cận mới làm minh bạch các mô hình bao gồm những giải thích địa phương-giải thích-mô hình-bất khả tri (LIME), cố gắng để nhận dạng những phần dữ liệu đầu vào cho một mô hình đào tạo mà hầu như dựa vào mô hình đó để đưa ra những tiên đoán.
Mở rộng quy mô sử dụng của AI vì lợi ích xã hội
Như với mọi sự triển khai công nghệ cho lợi ích xã hội, ứng dụng rộng và thành công của AI sẽ phụ thuộc vào sự sẵn sàng của một nhóm lớn các bên liên quan – bao gồm người thu thập và tạo dữ liệu, cũng như tham gia của chính phủ và NGOs. Đây vẫn là những ngày đầu của sự triển khai AI cho lợi ích xã hội, và tiến bộ đáng kể sẽ được cần đến trước khi tiềm năng to lớn trở thành thực tế. Người chơi trong khu vực công và tư nhân đều có một vai trò trong đó.
Cải thiện khả năng truy cập dữ liệu cho các ứng dụng có tác động xã hội
Một phạm vi rộng của các bên liên quan sở hữu, điều khiển, thu thập, hoặc tạo ra dữ liệu mà có thể được triển khai cho các giải pháp AI. Những chính phủ nằm trong số những nhà thu thập thông tin quan trọng nhất, mà có thể bao gồm thuế, sức khỏe, và dữ liệu giáo dục. Khối lượng dữ liệu khổng lồ cũng được thu thập bởi các công ty tư nhân – bao gồm khai thác vệ tinh, các công ty viễn thông, tiện ích và công ty công nghệ mà chạy nền tảng kỹ thuật số, cũng như trang web truyền thông xã hội và hoạt động tìm kiếm. Những bộ dữ liệu này có thể chứa thông tin cá nhân bảo mật cao mà không thể được chia sẻ nếu không được ẩn danh. Nhưng những nhà khai thác tư nhân cũng có thể thương mại hóa bộ dữ liệu của họ, do đó có thể không có sẵn cho các trường hợp tốt cho xã hội.
Vượt qua thử thách tiếp cận này sẽ có thể yêu cầu một cuộc kêu gọi toàn cầu hành động để ghi lại dữ liệu và biến nó trở nên sẵn sàng hơn cho các sáng kiến xã hội đã được xác định rõ.
Người thu thập dữ liệu và người khởi xướng sẽ cần để được khuyến khích – và có thể bắt buộc – để mở tiếp cận đến tập hợp dữ liệu của họ khi đó có thể là lợi ích công cộng rõ ràng. Điều này đã bắt đầu xảy ra ở một vài lĩnh vực. Ví dụ, nhiều công ty dữ liệu vệ tinh tham gia Hiến chương quốc tế về không gian và các thảm họa lớn – Charter on Space and Major Disasters, trong đó cam kết cho họ mở truy cập đến các dữ liệu vệ tinh trong trường hợp khẩn cấp, ví dụ như sóng thần tháng 9 năm 2018 ở Indonesia và cơn bão Michael, mà tấn công bờ biển phía Đông nước Mỹ vào tháng 10 năm 2018.
Ghi chú từ mặt trận AI: Áp dụng AI vì lợi ích xã hội
Hợp tác gần gũi giữa NGOs và người thu thập dữ liệu và người khởi xướng cũng có thể giúp tạo điều kiện thúc đẩy để khiến dữ liệu dễ tiếp cận hơn. Kinh phí sẽ được yêu cầu từ những chính phủ và các nhà sáng lập sáng kiến để ghi lại và lưu trữ dữ liệu có thể được sử dụng cho từ phía xã hội.
Kể cả khi dữ liệu được tiếp cận, sử dụng chúng đưa ra những thử thách. Đầu tư liên tục sẽ được cần đến để ủng hộ ghi nhãn dữ liệu chất lượng cao. Và nhiều bên liên quan sẽ phải cam kết chính họ để lưu trữ dữ liệu mà để có thể được tiếp cận một cách phối hợp và sử dụng những tiêu chuẩn lưu trữ dữ liệu tương tự khi có thể để đảm bảo khả năng tương tác liền mạch.
Những vấn đề của chất lượng dữ liệu và tính thiên vị tiềm năng và công bằng cũng sẽ phải được giải quyết nếu dữ liệu được triển khai hữu ích. Sự minh bạch sẽ là một chiếc chìa khóa cho sự thiên vị và công bằng. Một sự hiểu biết sâu về dữ liệu, nguồn gốc của chúng, và đặc điểm của chúng phải được chụp lại, để những người khác sử dụng bộ dữ liệu hiểu được các lỗ hổng tiềm tàng.
Tất cả điều này rất có thể yêu cầu sự hợp tác giữa các công ty, chính phủ, và NGOs để thiết lập diễn đàn dữ liệu thường xuyên, trong mỗi nền công nghiệp, để làm việc trong sự có sẵn và tiếp cận được của dữ liệu và trong các vấn đề kết nối. Lý tưởng nhất, những bên liên quan này sẽ thiết lập những tiêu chuẩn công nghiệp toàn cầu và phối hợp chặt chẽ trong các trường hợp sử dụng để đảm bảo rằng việc triển khai trở nên khả thi.
Vượt qua những thiếu hụt tài năng AI là then chốt để thực hiện các giải pháp dựa trên AI cho tác động xã hội
Giải pháp dài hạn đến những thử thách về tài năng chúng tôi đã nhận biết sẽ là tuyển mộ nhiều sinh viên hơn chuyên ngành khoa học máy tính và chuyên môn về AI. Điều đó có thể được thúc đẩy bởi sự tăng đáng kể trong tài trợ – cả tiền trợ cấp và học bổng – cho giáo dục sau trung học phổ thông và cho bằng tiến sỹ trong lĩnh vực liên quan đến AI. Vì yêu cầu chi trả cao cho chuyên gia AI ngày nay, thị trường có thể phản ứng với một nhu cầu tăng cao cho giáo dục về AI, mặc dù những kỹ năng toán nâng cao có thể làm chùn bước nhiều người.
Duy trì hoặc thậm chí tăng cường những cơ hội giáo dục hiện tại sẽ có ích. Những cơ hội này bao gồm “nội trú AI” – một năm chương trình luyện tập ở phòng thí nghiệm nghiên cứu của công ty – và “trại khởi động” AI ngắn hạn và học viện dành cho các chuyên gia. Một tấm bằng nâng cao thông thường không cần, mà chương trình có thể luyện những người tham gia luyện tập của nghiên cứu AI mà không yêu cầu họ dành hàng năm trong một chương trình Tiến sỹ.
Do thiếu hụt của những chuyên gia AI có kinh nghiệm trong lĩnh vực xã hội, những công ty với tài năng AI có thể đóng một vai trò chủ yếu trong tập trung nhiều nỗ lực hơn trong các giải pháp AI mà có tác động xã hội. Ví dụ, họ có thể khuyến khích nhân viên tình nguyện và ủng hộ hoặc huấn luyện viên tổ chức phi thương mại muốn áp dụng, triển khai và duy trì các giải pháp AI có tác động cao. Các công ty và trường đại học với tài năng AI cũng có thể dành một vài năng lực nghiên cứu của họ cho các khả năng có lợi cho xã hội mới của AI hoặc những giải pháp mà không thể thu hút những người có kỹ năng cần thiết.
Vượt qua sự thiếu hụt về tài năng có thể quản lý triển khai AI sẽ có thể yêu cầu chính phủ và các nhà cung cấp giáo dục làm việc với các công ty và các tổ chức khu vực xã hội để phát triển nhiều khóa luyện tập miễn phí hoặc giá thấp hơn. Các quỹ tài trợ có thể cung cấp tài chính cho các sáng kiến như vậy.
Lực lượng đặc biệt của dịch giả công nghệ và kinh doanh từ các chính phủ, tập đoàn và tổ chức xã hội, cũng như dịch giả tự do, có thể được thành lập để giúp dạy NGOs về AI thông qua nghiên cứu trường hợp đáng tin cậy. Ngoài huấn luyện, lực lượng đặc biệt này có thể giúp NGOs khoanh vùng dự án tiềm năng, ủng hộ triển khai, và lên kế hoạch các bản đồ đường bền vững.
Từ thư viện khiêm tốn của các trường hợp ứng dụng AI mà chúng ta đã bắt đầu biên soạn, chúng ta đã có thể thấy tiềm năng to lớn cho sử dụng AI để giải quyết những thử thách quan trọng nhất của thế giới.
Trong khi tiềm năng là ấn tượng, chuyển nó thành thực tế trong quy mô nó xứng đáng sẽ yêu cầu sự tập trung, sự hợp tác, thiện chí, tài trợ, và một sự quyết tâm giữa nhiều bên liên quan để làm cho xã hội. Chúng ta chỉ đang khởi động trong hành trình này. Để đến đích sẽ là một quá trình từng bước một đương đầu với rào cản và chướng ngại vật. Chúng ta có thể nhìn thấy mặt trăng, nhưng để đến được đó sẽ yêu cầu nhiều công việc hơn và một niềm tin vững chắc rằng mục tiêu là xứng đáng với tất cả nỗ lực – vì lợi ích của tất cả
Về các tác giả
Michael Chui là một cộng sự và James Manyika là chủ tịch và giám đốc của Học viện toàn cầu McKinsey. Martin Harryson và Roger Robertsare gia nhập văn phòng thung lũng Silicon của McKinsey, nơi Rita Chung là một tư vấn. Pieter Nel là một chuyên gia ở văn phòng New York; Ashley van Heteren là một chuyên gia ở văn phòng Amsterdam.