Quên chuyện Robot giết người đi – Tính thiên vị là mối nguy hiểm thực sự của trí tuệ nhân tạo hiện nay.

English: Forget Killer Robots—Bias Is the Real AI Danger

John Giannandrea, người đứng đầu lĩnh vực nghiên cứu trí tuệ nhân tạo (AI- Artificial Intelelligence) tại Google quan ngại về các hệ thống máy thông minh học những định kiến của con người.

Người đứng đầu phòng AI của Google không lo lắng về các robot giết người siêu thông minh. Thay vào đó, John Giannandrea quan tâm đến nguy cơ có thể ẩn nấp bên trong các thuật toán trong việc học của máy móc được sử dụng để thực hiện hàng triệu quyết định mỗi phút.

Giannandrea phát biểu trước một cuộc họp gần đây của Google về mối quan hệ giữa con người và hệ thống AI “Câu hỏi về tính an toàn thực sự, nếu bạn muốn gọi cái tên, là nếu chúng ta đưa vào hệ thống này dữ liệu thiên về một hướng, hệ thống sẽ có tính thiên vị”.

Vấn đề thiên vị trong việc học của máy móc gần như trở nên quan trọng hơn khi công nghệ lan rộng đến các lĩnh vực quan trọng như y học và luật pháp, và  nhiều người không có mọt hiểu biết sâu về kỹ thuật được giao nhiệm vụ sử dụng các thiết bị một cách hiệu quả. Một số chuyên gia cảnh báo rằng sự thiên vị trong thuật toán đã phổ biến rộng rãi trong nhiều ngành công nghiệp và hầu như không ai cố gắng để xác định hoặc sửa chữa điều này (đọc bài “Những thuật toán thiên vị có ở khắp nơi, và dường như không ai quan tâm“).

Giannandrea nói thêm: “Điều quan trọng là chúng ta phải minh bạch về các dữ liệu huấn luyện cho máy móc  – dữ liệu chúng ta đang sử dụng và đang tìm kiếm những  thiên vị tiềm ẩn bên trong các thuật toán, nếu không thì chúng ta đang xây dựng các hệ thống thiên vị”. “Nếu ai đó đang cố bán cho bạn một hệ thống hộp đen để hỗ trợ đưa quyết định y học và bạn không biết hệ thống hoạt động như thế nào và dữ liệu nào được sử dụng để phát triển hệ thống, thì tôi sẽ không tin tưởng hệ thống đó.”

Các mô hình máy học hộp đen đã và đang có một tác động lớn đến cuộc sống của một số người. Một hệ thống gọi là COMPAS – được tạo bởi công ty Northpointe – cung cấp để dự đoán khả năng tái phạm của bị cáo và được sử dụng bởi một số thẩm phán để xác định liệu một tù nhân có được tạm tha hay không. Các hoạt động của COMPAS được giữ bí mật, nhưng một cuộc điều tra của ProPublica đã tìm ra bằng chứng cho thấy mô hình có thể thiên lệch chống lại các nhóm thiểu số.

Tuy nhiên, không phải lúc nào cũng đơn giản trong việc công bố các chi tiết của dữ liệu hoặc các thuật toán được sử dụng. Nhiều kỹ thuật máy học mới nhất và mạnh nhất rất phức tạp và khó hiểu  khi vận hành đến nỗi chúng chống lại được những phép kiểm định cẩn thận (đọc bài “Bí mật đen tối ở tâm của AI – The Dark Secret at the Heart of AI”). Để giải quyết vấn đề này, các nhà nghiên cứu đang tìm cách để các hệ thống này đưa ra một sự tương đối cho hoạt động của hệ thống đối với kỹ sư và người sử dụng cuối cùng.

Giannandrea có lý do chính đáng để nhấn mạnh sự tiềm ẩn của tính thiên vị đang len lỏi trong lòng AI. Google là một trong số nhiều công ty lớn chào hàng khả năng của AI trên nền tảng điện toán đám mây cho tất cả các loại hình doanh nghiệp. Các hệ thống học máy móc dựa trên đám mây được thiết kế để sử dụng dễ dàng hơn nhiều so với các thuật toán cơ bản. Điều này sẽ giúp làm cho công nghệ dễ tiếp cận hơn, nhưng cũng có thể làm cho công nghệ dễ bị tính thiên vị tác động . Điều này sẽ quan trọng đối với việc cung cấp hướng dẫn và các công cụ để giúp các nhà khoa học và kỹ sư dữ liệu ít kinh nghiệm  xác định và loại bỏ sự thiên vị từ dữ liệu đào tạo của  mình.

Một số diễn giả được mời tham dự hội nghị được tổ chức bởi Google cũng nhấn mạnh về vấn đề thiên vị. Nhà nghiên cứu của Google, Maya Gupt, đã chỉ ra những nỗ lực của cô trong việc xây dựng các thuật toán rõ ràng hơn như là một phần của nhóm được biết đến dưới cái tên “GlassBox”. Và Karrie Karahalios, giáo sư khoa học máy tính tại Đại học Illinois, đã trình bày nghiên cứu nêu bật khó khăn để chỉ ra sự thiên vị ngay cả trong các thuật toán phổ biến nhất. Karahalios chỉ ra rằng người dùng thường không hiểu làm thế nào Facebook lọc các bài đăng được hiển thị trong nguồn tin tức của họ. Mặc dù điều này có vẻ vô hại nhưng là một minh hoạ ngắn gọn cho thấy khó khăn ra sao trong việc thẩm tra một thuật toán.

Thuật toán nguồn cấp tin của Facebook chắc chắn có thể định hình sự nhận thức cộng đồng về tương tác xã hội và thậm chí là các sự kiện tin tức lớn. Các thuật toán khác có thể đang làm thay đổi một cách tinh vi những loại chăm sóc y tế mà một người nhận được, hoặc cách họ được đối xử trong hệ thống hình sự. Điều này chắc chắn là nghiêm trọng hơn rất nhiều so với robot giết người, ít nhất là cho đến bây giờ.

Giannandrea chắc chắn có lý do trong những năm gần đây trong một số cảnh báo huyền ảo hơn về các nguy cơ gây ra bởi AI. Đặc biệt Elon Musk đã tạo ra vô số các tiêu đề bằng cách cảnh báo gần đây rằng AI là một mối đe dọa lớn hơn Bắc Triều Tiên và có thể dẫn đến chiến tranh thế giới thứ 3.

“Điều tôi phản đối là giả định cho rằng chúng ta sẽ nhảy vọt vào một hệ thống siêu thông minh mà sau đó sẽ biến con người trở nên lỗi thời”, Giannandrea nói. “Tôi hiểu tại sao mọi người quan ngại đến AI nhưng tôi nghĩ rằng nó đã chiếm quá nhiều chỗ trên truyền thông. Mà tôi không thấy có ai nói về sự thiên vị của công nghệ đang thực sự diễn ra. ”

Advertisements

Trả lời

Mời bạn điền thông tin vào ô dưới đây hoặc kích vào một biểu tượng để đăng nhập:

WordPress.com Logo

Bạn đang bình luận bằng tài khoản WordPress.com Đăng xuất /  Thay đổi )

Google+ photo

Bạn đang bình luận bằng tài khoản Google+ Đăng xuất /  Thay đổi )

Twitter picture

Bạn đang bình luận bằng tài khoản Twitter Đăng xuất /  Thay đổi )

Facebook photo

Bạn đang bình luận bằng tài khoản Facebook Đăng xuất /  Thay đổi )

w

Connecting to %s