Những vấn đề pháp lý thực tế của Trí tuệ nhân tạo – Artificial Intelligent

English: Artificial Intelligence: The Real Legal Issues

Nếu bạn đang đọc bài này, rất có thể bạn sẽ bắt gặp khái niệm Trí tuệ Nhân tạo – AI/Artificial Intelligent trong các nghiên cứu của mình. Giống như hầu hết các vấn đề thời thượng, có rất nhiều bài viết về chủ đề này chia thành hai loại – tài liệu hoặc giả định một mức độ kiến ​​thức dựa trên khoa học máy tính hoặc thông thường hơn là phần mềm bán hàng được cải trang dạng mỏng mà không truyền tải được nhiều.

Bài báo này dựa trên bài thuyết trình mà tôi trình bày tại Hội nghị thường niên của SCL Viện Kỹ thuật London vào tháng 6 và hy vọng sẽ cung cấp cho những người không có kiến thức và kinh nghiệm (và người có một ít kiến thức) một nền tảng vững chắc để có thể dựa vào đó để có những hiểu biết và đánh giá thực tiễn về những rủi ro pháp lý khi sử dụng trí tuệ nhân tạo. Vì vậy, bài viết sẽ hy vọng sẽ được tiếp cận được với những người có tư duy pháp lý khi quan tâm đến công nghệ này.

 Những rủi ro pháp lý mà tôi đã phân loại thành “Thách thức nguyên nhân – hệ quả” và “Thách thức về Dữ liệu lớn”

Trước khi chúng ta thảo luận về những thách thức này, cần phải xem xét ngắn gọn những động cơ thúc đẩy kinh doanh hiện tại đang đẩy các ranh giới của kế hoạch phát triển AI và những tiến bộ công nghệ hiện tại là gì, hay chỉ là để đạt được sự đánh giá cao hơn về thế giới thực cho ứng dụng đang thúc đẩy việc sử dụng AI?

Tôi nên nói ngay từ đầu rằng trong lĩnh vực AI đó sự học của máy móc – là năng lực để máy móc học hỏi và đưa ra quyết định độc lập, điều này tạo ra những khó khăn rất lớn về khái niệm cho các luật sư. Trọng tâm của vật lộn với khái niệm này là ở kiến ​​thức mà con người có thể dạy máy móc để học và phát triển các hành vi độc lập của cái máy, về mặt khoa học, chúng ta vẫn còn lạc lối về cách cái máy đó học và phát triển như thế nào và làm như vậy có thể dẫn đến một số kết quả rất khó lường – ví dụ như mạng thần kinh của Google Brain, được giao nhiệm vụ giữ các thông tin liên lạc riêng tư, phát triển một cách hoàn toàn độc lập các thuật toán mã hóa của riêng mạng lưới [1].

Có một số ứng dụng “máy học” trong thế giới thực đang thúc đẩy phát triển trong công nghệ:

·       Xử lý hình ảnh và gắn thẻ

Xử lý hình ảnh như cái tên gọi yêu cầu các thuật toán để phân tích hình ảnh để có được dữ liệu hoặc để thực hiện chuyển đổi. Ví dụ quá trình này bao gồm việc gắn thẻ nhận dạng / hình ảnh – như đã được sử dụng trong các ứng dụng như Facebook để cung cấp sự nhận dạng khuôn mặt hoặc để xác định các dữ liệu khác từ quét trực quan hình ảnh, chẳng hạn như sức khoẻ của một cá nhân hoặc nhận diện vị trí cho dữ liệu địa lý; Nhận dạng ký tự quang học – nơi các thuật toán học cách đọc văn bản viết tay và chuyển tài liệu sang các phiên bản số

·       Xử lý môi trường 3D

Xử lý môi trường 3D là một phần mở rộng của kỹ năng xử lý hình ảnh và gắn thẻ – rõ ràng nhất là chuyển thành các kỹ năng theo yêu cầu của một thuật toán cho một phương tiện hoặc gọi là “Kết nối và Tự trị – Connected and Autonomous” để cho chiếc xe hiểu vị trí và môi trường đang lái xe. Điều này sử dụng dữ liệu hình ảnh nhưng cũng có thể dữ liệu radar và laser để hiểu hình học 3D. Thông thường công nghệ này cũng có thể được sử dụng trong các thiết bị rô-bốt miễn phí bao gồm máy bay không người lái.

·       Phân tích văn bản

Đây là những quy trình trích xuất thông tin hoặc áp dụng phân loại cho các hạng mục của dữ liệu dựa trên văn bản. Điều này có thể bao gồm các bài đăng phương tiện truyền thông xã hội, tweet hoặc email. Công nghệ này sau đó có thể được sử dụng để cung cấp bộ lọc (đối với thư rác SPAM); khai thác thông tin – ví dụ như để lấy ra các phần dữ liệu cụ thể như tên và địa chỉ hoặc phân tích tình cảm – để xác định tâm trạng của người viết (như Facebook gần đây đã thực hiện liên quan đến các bài đăng có khả năng tự tử [2]). Phân tích văn bản cũng là trọng tâm của công nghệ Chatbot – cho phép tương tác trên phương tiện truyền thông xã hội.

·       Phân tích lời nói

Xử lý lời nói yêu cầu các kỹ năng tương đương với những kỹ năng được sử dụng cho văn bản và áp dụng chúng vào ngôn ngữ nói. Đây là lĩnh vực đang chứng kiến ​​một mức đầu tư đáng kinh ngạc trong việc tạo ra các trợ lý kỹ thuật số cá nhân từ Amazon (với thiết bị Echo), Microsoft với Cortana, thiết bị gia đình của Google và Apple với Siri (và bây giờ là ” Homepod “).

·       Khai thác dữ liệu

Đây là quy trình phát hiện các mẫu hoặc ngoại suy các xu hướng từ dữ liệu. Thuật toán khai thác dữ liệu được sử dụng cho những việc như phát hiện Anomaly – xác định cho các mục hoặc các giao dịch gian lận; Các quy tắc kèm theo – phát hiện thói quen mua sắm siêu thị bằng cách xem giỏ hàng mua sắm điển hình của người mua sắm; và Dự đoán – dự đoán một biến từ một tập hợp của những người khác để ngoại suy ví dụ như một điểm tín dụng

·       Xử lý môi trường ảo bằng trò chơi video

Trò chơi điện tử là một ngành công nghiệp giải trí trị giá hàng tỷ đô la nhưng chúng cũng là những môi trường ảo chính để các máy móc tương tác và tìm hiểu các hành vi liên quan đến các yếu tố khác trong môi trường ảo, bao gồm tương tác với chính những người chơi.

• Thách thức nguyên nhân – hệ quả

Vậy tôi có ý gì khi nói “Thách thức nguyên nhân – hệ quả”?

Những gì tôi đang đề cập ở đây là làm thế nào câu hỏi về trách nhiệm pháp lý truyền thống được giải quyết. Về cơ bản, điều này thực hiện qua việc chỉ định lỗi  bằng cách áp dụng nguyên tắc nguyên nhân – hậu quả (causation).

Lỗi dẫn đến bồi thường. Cho dù đó là trách nhiệm dưới luật về hành vi sai lầm, vi phạm hợp đồng hay – ở mức độ giới hạn hơn – luật bảo vệ người tiêu dùng – chính cách chỉ định lỗi này cho phép các bên bị tổn hại về tài chính hoặc thể chất tìm kiếm biện pháp khắc phục và nhận được bồi thường thiệt hại. Luật bảo vệ người tiêu dùng rõ ràng là định trách nhiệm tuyệt đối (strict liability) về bản chất, nhưng ngay cả ở đây bạn cần phải xác định sự hiện diện của một lỗi.

Là luật sư, tất cả chúng ta đều hiểu rằng chỉ định lỗi  được điều khiển bởi cơ chế nguyên nhân – hậu quả. Nếu bạn có thể chỉ điểm nguyên nhân, thì sau đó bạn có thể chỉ định điều để đổ lỗi. Cho dù đó là vi phạm nhiệm vụ phải cẩn thận trong luật về hành động sai lầm, vi phạm một điều khoản rõ ràng hay điều khoản ngụ ý trong một hợp đồng, hoặc xác định một cái gì hỏng trong luật bảo vệ người tiêu dùng, trong mỗi trường hợp phải có một lỗi hoặc một vi phạm gây ra thiệt hại.

Vấn đề thực sự với các thiết bị dùng trí tuệ nhân tạo  là khi máy có những quyết định càng ngày càng đi xa  các chương trình lập trình trực tiếp (bởi con người) và càng dựa trên các nguyên tắc máy tự học như chúng ta đã thảo luận ở trên, thì càng khó có thể đặt câu hỏi cho việc chỉ định lỗi ở đâu.

Các khuôn khổ trách nhiệm pháp lý hiện tại của chúng ta giải quyết ổn với các hư hỏng có thể truy tìm được – các quyết định của máy móc có thể truy tìm ngược lại từ chương trình bị lỗi hoặc sử động không đúng cách. Nhưng khuôn khổ pháp lý bắt đầu thất bại khi những khuyết điểm không thể giải thích được hoặc không thể tìm ra được lỗi từ con người.

Bây giờ chúng ta thấy các nhà hành pháp suy nghĩ và đánh vật với vấn đề này.

Như tôi đã đề xuất trong một báo cáo trong hội nghị luật trong công nghệ thông tin ITechLaw năm 2016 [4] và sau đó đã được Ủy ban Ủy ban Pháp lý của Chính phủ Châu Âu đồng ý trong Báo cáo về Các Luật Dân sự về Robot [5], vào tháng 1 năm 2017, một trong những cách để “khắc phục” được điều này là đưa ra một hệ thống trách nhiệm pháp lý tuyệt đối được hỗ trợ bởi một quỹ từ phí cấp giấy phép và một cơ quan chứng nhận.

Cách làm việc này có thể là đưa ra một hệ thống đánh giá cho một thiết bị là robot hoặc AI và yêu cầu đóng một khoản phí để đưa thiết bị đó ra thị trường.

Tôi muốn tham khảo các cơ quan chứng nhận này như là “Đăng ký  Turing – Turing Registries” [6] được đặt tên để ghi nhớ Alan Turing, một nhà tiên phong về phát minh ra máy tính, mặc dù Nghị viện châu Âu thích sử dụng từ thông thường hơn  với Cơ quan Robot và Trí tuệ nhân tạo của Liên minh Châu Âu.

Khoản tiền này sẽ được chuyển vào một quỹ để có thể trả khoản tiền bồi thường trong trường hợp xảy ra rủi ro.

Hệ thống này có một số tiền lệ về lịch sử vì nó đã có hiệu lực ở New Zealand, theo hình thức Đạo luật Bồi thường Tai nạn năm 1972 [7], quy định tất cả các hình thức tai nạn thương tích cá nhân (kể cả tai nạn giao thông đường bộ) và đã xóa bỏ hiệu quả các vụ kiện tụng thương tích cá nhân ở nước đó.

Cá nhân tôi thích điều này như là một giải pháp vì nó cơ bản có thể mở rộng – bạn có thể tưởng tượng rằng khi máy móc trở nên ngày càng có nhiều khả năng hơn, hệ thống có thể thu hút phí cấp phép cao hơn để tài trợ cho nhiều rủi ro hơn.

Vương quốc Anh đã làm gì để giải quyết thách thức này? Chúng ta đã chứng kiến ​​nhiều chuyển động nhất cho các phương tiện.

Chính phủ Anh gần đây đã kết luận tài liệu tham khảo về phát triển xe không người lái – bao gồm đánh giá về cách mà các phương tiện tự hành như vậy nên được bảo hiểm ta sao. Với cái tên rất khó chịu “Lộ trình dẫn đến xe không người lái: Đề xuất hỗ trợ hệ thống hỗ trợ lái xe tiên tiến và công nghệ ô tô tự động” [8], dẫn đến dự luật về Công nghệ Xe hơi và Hàng không do Chris Grayling trình bày trong Quốc hội lần cuối.

Việc kêu gọi cuộc tổng tuyển cử năm 2017 có nghĩa là biện pháp lập pháp được đề xuất này đã tự động thất bại – tuy nhiên biện pháp này đã được phục hồi đáng kể trong Luật về Xe tự hành và Điện tử, được công bố trong Cuộc nói chuyện của Nữ hoàng năm 2017 [9].

Vào thời điểm của bài viết này, chúng tôi không có văn bản của biện pháp mới, vì vậy tôi đề cập đến dự thảo trước đó ở đây, vì rõ ràng rằng chính phủ Anh dự định sẽ duy trì vị thế được áp dụng trong dự luật đã chết Công nghệ Xe và Hàng không.

Vậy đề xuất lập pháp là gì? Thay vì đi vào con đường trách nhiệm nghiêm ngặt mà tôi đã đề cập ở trên, chính phủ đã chọn để giải quyết vấn đề xe không người lái từ quan điểm của những khoảng trống trong bảo hiểm hiện tại gây ra bởi lái xe tự hành hoàn toàn.

Đây là một phản ứng chủ yếu mang tính thực tế có thể sẽ hoạt động được trong một môi trường hỗn hợp của những chiếc xe không người lái và những xe do người lái – nó cũng tránh được sự thay đổi hệ thống đối với ngành bảo hiểm. Tuy nhiên, biền pháp này hoàn toàn tránh đi thách thức nguyên nhân – hệ quả. Đặc biệt, biện pháp này phụ thuộc rất nhiều vào việc các công ty bảo hiểm bồi thường bảo hiểm rồi thế quyền của người được bảo hiểm và, do đó, đòi lại tiền bồi thường từ bên thứ ba khác, kể cả các nhà sản xuất. Tất nhiên điều này sẽ là vấn đề lớn đối với các công ty bảo hiểm nếu không thể tìm ra lỗi hoặc khiếm khuyết có liên quan [10].

Phần 2 của Luật Công nghệ Xe và Hàng không đã được soạn thảo với điều kiện là “Trường hợp … tai nạn là do phương tiện tự hành khi lái chính nó… chiếc xe được bảo hiểm vào thời điểm xảy ra tai nạn và … người được bảo hiểm hoặc bất kỳ người nào khác bị thiệt hại do tai nạn, hãng bảo hiểm phải chịu trách nhiệm về thiệt hại đó. ”

Về bản chất, nguyên tắc được ghi trong dự luật là nếu bạn bị đâm bởi một chiếc xe của bên đã được bảo hiểm tự lái xe vào thời điểm đó thì hãng bảo hiểm “có lỗi” phải trả hết. Nếu bạn có bảo hiểm toàn diện thì bạn cũng sẽ được bảo hiểm cho thương tích của mình. Nếu xe có lỗi không được bảo hiểm thì Cục Bảo hiểm xe sẽ trả theo cách thông thường và tìm cách thu hồi khoản lỗ của nó từ chủ xe không có bảo hiểm. Như đã nói ở trên, rất có thể phương pháp này sẽ được chuyển vào Dự luật mới về Xe tự hành và xe Điện.

Vậy đó, một bước đi nhanh chóng thông qua các đề xuất pháp lý hiện tại cho các thiết bị sử dụng AI –  như ngành công nghiệp ô tô trình bày. Không có gì đáng ngạc nhiên, và khá đáng thất vọng, chúng ta đang nhìn thấy một cách tiếp cận giả tạm có hiệu lực là “đá ống bơ tới trước” tức là tạm thời tránh nó đi thay vì phải đối mặt với vấn đề. Sớm hay muộn thì bóng ma của nguyên nhân hậu quả sẽ cần phải đối mặt.

• Thách thức về dữ liệu lớn – Big Data

Tất nhiên thách thức khác đối mặt với người dùng và người chấp nhận AI là từ bên trong.

Thách thức về Big Data như tôi đã gọi nó có hai khía cạnh chồng chéo: thứ nhất là cách mà ngành công nghiệp sử dụng nhiều terabyte dữ liệu thông minh được tạo ra hoặc “trực tiếp” bởi “các thiết bị thông minh” – và một lần nữa là những chiếc xe không lái xe và ngành công nghiệp vận chuyển đang dẫn đầu về cách này.

Thứ hai, tính sẵn có của các phân tích tiên đoán được mô phỏng bởi AI đang làm thay đổi cách kinh doanh phục vụ khách hàng và có tiềm năng tạo ra những vấn đề nghiêm trọng về sự riêng tư.

Mặc dù các công nghệ này đang được sử dụng để giảm chi phí và cạnh tranh gay gắt hơn trong một số ngành công nghiệp, ví dụ như bảo hiểm, thì cũng có nguy cơ tương đối lớn hơn đối với người dân bị mất quyền lợi hoặc bị loại trừ – ví dụ như tham gia thị trường bảo hiểm hoặc tài chính – thông qua việc thu hồi các sản phẩm bảo hiểm hoặc tài chính như là một kết quả.

Truyền tải thông minh – Smart streaming

“Truyền tải thông minh” cho dữ liệu đã thu hút được sự chú ý của các cơ quan quản lý. Ủy ban châu Âu vừa công bố Chiến lược về Hệ thống Vận tải thông minh Hợp tác (Joint-Operative Intelligent Transport System) hoặc “CIT-S” [11], đưa ra cách tiếp cận để phát triển cơ sở hạ tầng giao thông thông minh được chuẩn hóa cho phép các phương tiện giao tiếp với nhau, với các hệ thống quản lý lưu lượng tập trung và những người sử dụng đường cao tốc khác. Khả năng sử dụng các dữ liệu như vậy rõ ràng gây phiền hà – ví dụ không chỉ phương tiện tự lại xác định đích đến của chuyến đi, nó cũng có thể báo cáo lại về thói quen lái xe và lý thuyết xác định bất kỳ tội phạm giao thông nào.

Trong bối cảnh của cuộc thảo luận của chúng tôi dữ liệu như vậy rõ ràng cũng có thể có tác động đến cách bảo hiểm được cung cấp cho người sử dụng chiếc xe khi con người thí điểm.

Chính sách được thông qua bởi Ủy ban Châu Âu đã xác định những dữ liệu đó như là dữ liệu cá nhân và do đó giúp họ bảo vệ khuôn khổ bảo vệ dữ liệu của châu Âu.

Như họ xác định trong báo cáo – “việc bảo vệ dữ liệu cá nhân và sự riêng tư là một yếu tố quyết định cho việc triển khai thành công các phương tiện hợp tác, kết nối và tự động. Người sử dụng phải đảm bảo rằng dữ liệu cá nhân không phải là hàng hoá, và họ có thể kiểm soát hiệu quả dữ liệu của họ đang được sử dụng và mục đích gì. “[12]

Phân tích dự báo

Trong bối cảnh thách thức Dữ liệu Lớn, chúng ta không nên bỏ qua hiệu ứng gây gián đoạn của phân tích dự báo do AI điều khiển. Ảnh hưởng trực tiếp nhất của vấn đề này được minh họa tốt nhất bởi hệ thống phân tích dự báo tác động đang có trong ngành Bảo hiểm.

Khác với những tác động tiềm năng của công việc liên quan đến xử lý khiếu nại và xử lý khiếu nại – (ví dụ như Fukoka Mutual Life ở Nhật Bản đang dỡ bỏ tất cả những người xử lý yêu cầu bồi thường của họ ủng hộ IBM Watson [13]), công nghệ đang chuyển đổi theo hướng mà các công ty bảo hiểm mô hình rủi ro và do đó phí bảo hiểm.

Ở mức đơn giản nhất, các công ty bảo hiểm mô hình rủi ro bằng một khái niệm gọi là “tổng hợp”. Các công ty bảo hiểm đưa ra những nhóm lớn những người tương tự, sử dụng các điểm mô hình hóa rủi ro chung, và phí bảo hiểm của họ được sử dụng để tài trợ cho một “nhóm chung”.

Trong một năm nào đó, một số sẽ cần được thanh toán và một số sẽ không. Miễn là hồ bơi chung vẫn còn nước – hệ thống tiếp tục hoạt động. Chức năng phân tích dự báo bằng cách cho các công ty bảo hiểm chi tiết hơn về cá nhân và các rủi ro liên quan. Điều này cho phép định giá rủi ro chính xác hơn và loại bỏ sự cần thiết phải tập hợp nhiều nhóm người lại với nhau.

Rõ ràng điều này cho thấy một loạt các câu hỏi đạo đức về tính sẵn có và giá cả của bảo hiểm.

Các hành vi lái xe là một ví dụ rõ ràng có thể dẫn đến các hành vi “rủi ro” làm tăng giá bảo hiểm và hành vi “an toàn” giảm xuống. Thậm chí nghiêm trọng hơn là tác động của các phân tích tiên tiến về dữ liệu di truyền có thể mô hình tính nhạy cảm với bệnh di truyền và do đó ảnh hưởng đến giá cả và tính sẵn có của bảo hiểm nhân thọ. Hiện trạng của vấn đề là điều này nghĩa thậm chí không cần vật liệu di truyền để được lấy mẫu.

Vì vậy, ví dụ công ty Lapetus ở Hoa Kỳ có thể phân tích hình ảnh “selfie” bằng cách sử dụng hàng ngàn điểm dữ liệu trên khuôn mặt để xác định nhanh một cá nhân đang già, giới tính, chỉ số khối cơ thể và liệu họ có hút thuốc hay không. Hệ thống của họ dự đoán tuổi thọ của các cá nhân chính xác hơn các phương pháp truyền thống.

Postscript – Một số suy nghĩ cho luật sư giao dịch

Điều này là rất tốt, nhưng nó mang lại điều gì cho luật sư giao dịch phải đối mặt với nhiệm vụ ký hợp đồng với một hệ thống dựa trên AI?

Có thể đó là thách thức nguyên nhân hậu quả đòi hỏi phải có nhiều tư duy hơn liên quan đến trách nhiệm pháp lý, vì những thách thức đặt ra từ việc sử dụng các dữ liệu lớn sẽ không thay đổi cho dù chúng được xử lý bằng các hệ thống thông minh thông thường hay nhân tạo – thực sự chúng ta đều biết (hoặc thực sự cần ) về sự khởi đầu và những thay đổi có thể mang lại.

Liên quan đến nguyên nhân – hệ quả ra vẫn còn nhiều vấn đề. Những gì cần được phân tích trong bất kỳ tình huống thực tế nào là bối cảnh của cho xu hướng hệ thống AI đưa ra những quyết định có ảnh hưởng về trách nhiệm. Nhu cầu ở đây sẽ là để cả hai bên tránh rối loạn về yêu cầu bồi thường thiệt hại lớn, điều này chủ yếu phụ thuộc vào nguyên nhân và chứng minh thiệt hại.

Tôi đề xuất trong các ứng dụng cho  “nhiệm vụ tối quan trọng”, nơi mà một quyết định không dự báo được mà thực hiện bởi một máy thông minh nhân tạo, cần phải đặt nguyên nhân – hệ quả qua một bên và tập trung vào chính các thiệt hại. Điều này chắc chắn sẽ cho chúng ta đi vào hướng của cơ chế hồi phục dựa trên bảo toàn an ninh. Dự đoán của tôi – hy vọng sẽ nhìn thấy nhiều hơn trong những hợp đồng của bạn trong tương lai, được thể hiện trên cơ sở rộng hơn.

Bài báo này lần đầu tiên xuất hiện trên Tạp chí Society for Computers and Law.

Để xem tất cả định dạng của bài viết này ( bảng, chú thích cuối trang),  truy cập vào bản gốc ở đây.

 

Chú thích và tham khảo

[1] https://arstechnica.co.uk/information-technology/2016/10/google-ai-neural-network-cryptography/  “Google AI invents its own cryptographic algorithm; no one knows how it works

[2] See for example http://www.bbc.co.uk/news/technology-39126027 “Facebook artificial intelligence spots suicidal users“, 1st March 2017

[3] See for example the July edition (E308) knowledge feature of Edge Magazine – “Machine Language” which discusses new startup SpiritAI – a business that has developed an intelligent character engine for NPCs (non player characters) in video games, thus obviating the need for thousands of pages of pre-scripted dialogue.

[4] “Liability issues in Autonomous and Semi-Autonomous Systems“, John Buyers, available online at Osborne Clarke’s Website (and for ITechLaw members on the ITechLaw website).  See http://bit.ly/2tQk78i

[5] See http://bit.ly/2lmorKW

[6] The term “Turing Registry” was coined by Curtis E.A. Karnow in his seminal paper, “Liability for Distributed Artificial Intelligences“, see Berkeley Technology Law Journal 1996, Vol 11.1, page 147

[7] See http://www.nzlii.org/nz/legis/hist_act/aca19721972n43231/

[8] See the government response to the consultation at http://bit.ly/2iLd23x

[9] See: https://www.gov.uk/government/speeches/queens-speech-2017

[10] What seems to have been overlooked in the government’s analysis is the complete unsuitability of current consumer protection law (as embodied in the Consumer Protection Act 1982) to deal with liability issues caused by AI devices.  The first concern is that the law is designed as a measure to protect consumers (ie real live persons, as opposed to legal persons) from personal injury.  Its focus is not on pecuniary loss and damage.  Secondly, the definition of “Product” under the CPA is not clear whether software and/or other products of an intellectual type are included, and thirdly there is the so-called “Developmental Risks Defence” which provides a defence to the manufacturer “if the scientific and technical knowledge at the time the product was manufactured was not such that a producer of a similar product might have been able to discover the defect” (s4(1)e) – clearly a defence which will provide maximum wriggle room for the developers of AI technology!  See my 2016 paper (referenced earlier) for a more detailed discussion.

[11] See: http://ec.europa.eu/energy/sites/ener/files/documents/1_en_act_part1_v5.pdf

[12] Para 3.3 of the Report (Privacy and data protection safeguards), page 8

[13] See: https://www.theguardian.com/technology/2017/jan/05/japanese-company-replaces-office-workers-artificial-intelligence-ai-fukoku-mutual-life-insurance

[14] See: https://www.lapetussolutions.com/

Trả lời

Điền thông tin vào ô dưới đây hoặc nhấn vào một biểu tượng để đăng nhập:

WordPress.com Logo

Bạn đang bình luận bằng tài khoản WordPress.com Đăng xuất /  Thay đổi )

Facebook photo

Bạn đang bình luận bằng tài khoản Facebook Đăng xuất /  Thay đổi )

Connecting to %s