Định kiến ​​AI đang thay đổi cuộc sống của người Mỹ. Những gì chúng tôi có thể làm gì về nó?

Định kiến ​​AI đang thay đổi cuộc sống của người Mỹ. Những gì chúng tôi có thể làm gì về nó?
Định kiến ​​AI đang thay đổi cuộc sống của người Mỹ. Những gì chúng tôi có thể làm gì về nó?

Video: Bài học quý giá |Tổng tài mỹ nhân - tập 102 | Đúng là bộ truyện đáng nghe nhất 2024, Tháng BảY

Video: Bài học quý giá |Tổng tài mỹ nhân - tập 102 | Đúng là bộ truyện đáng nghe nhất 2024, Tháng BảY
Anonim

Hãy tưởng tượng một thế giới nơi các thuật toán thông minh nhân tạo đưa ra quyết định ảnh hưởng đến cuộc sống hàng ngày của bạn. Bây giờ, hãy tưởng tượng họ đang định kiến.

Đây là thế giới chúng ta đang sống, nhà khoa học dữ liệu, tiến sĩ Harvard và tác giả Cathy O'Neil nói. (Đọc phần một trong cuộc thảo luận của chúng tôi với Tiến sĩ O'Neil tại đây). Chúng tôi đã ngồi xuống với người được đề cử Giải thưởng Sách quốc gia để tìm hiểu những gì chúng ta có thể làm về định kiến ​​trong kỷ nguyên của dữ liệu lớn. CT: AI có thành kiến ​​không?

CO: Mọi thuật toán chưa được công bằng rõ ràng nên được coi là thành kiến. Bởi vì như mọi người, chúng ta định kiến. Nếu chúng tôi thừa nhận điều đó và chúng tôi đang tạo ra các thuật toán này với các giá trị và dữ liệu của chúng tôi, thì chúng tôi không nên cho rằng bất cứ điều gì đã xảy ra một cách kỳ diệu để làm cho mọi thứ trở nên công bằng. Không có phép thuật ở đó.

CT: Các thuật toán lấy dữ liệu của họ ở đâu?

CO: Nó phụ thuộc vào thuật toán. Đôi khi phương tiện truyền thông xã hội, cho những thứ như nhắm mục tiêu thị trường chính trị hoặc quảng cáo hoặc các trường đại học vì lợi nhuận và cho vay có mục đích - nhưng rất nhiều dữ liệu không được thu thập trên phương tiện truyền thông xã hội, hoặc thậm chí trực tuyến.

Thu thập dữ liệu ngày càng gắn liền với đời thực, như kiếm việc làm, làm việc, đi học đại học hoặc vào tù. Những thứ đó không phải là những thứ chúng ta có thể lách luật bằng luật riêng tư. Chúng là những vấn đề về quyền lực, trong đó những người bị thuật toán nhắm đến không có quyền lực, và những người đang thu thập thông tin và xây dựng và triển khai các thuật toán có toàn bộ sức mạnh. Bạn không có bất kỳ quyền riêng tư nào nếu bạn là một bị cáo hình sự, bạn không có bất kỳ quyền riêng tư nào trong công việc của bạn và bạn không có nhiều quyền về quyền riêng tư nếu bạn đang xin việc vì nếu bạn không trả lời các câu hỏi mà nhà tuyển dụng tương lai của bạn đã hỏi bạn, thì có khả năng bạn sẽ không nhận được công việc.

Chúng ta nên suy nghĩ ít hơn về quyền riêng tư và nhiều hơn về sức mạnh khi nói đến thuật toán và tác hại [chúng có thể gây ra].

CT: Chúng ta có thể làm gì để làm cho nó tốt hơn?

CO: Chúng tôi có thể thừa nhận rằng các thuật toán này vốn không hoàn hảo và kiểm tra chúng để tìm ra sai sót của chúng. Chúng ta nên có các cuộc kiểm tra và giám sát liên tục - đặc biệt đối với các quyết định quan trọng như tuyển dụng, kết án hình sự hoặc đánh giá mọi người trong công việc của họ - để đảm bảo rằng các thuật toán đang hành động theo cách chúng ta muốn, chứ không phải theo cách phân biệt đối xử hoặc không công bằng.

Image

Ailsa Johnson / © Chuyến đi văn hóa

CT: các tình huống tốt nhất và tồi tệ nhất cho tương lai dựa trên dữ liệu là gì?

CO: Kịch bản tồi tệ nhất là những gì chúng ta có bây giờ - rằng tất cả chúng ta đều mong đợi các thuật toán sẽ hoàn hảo, mặc dù bây giờ chúng ta nên biết rõ hơn. Và chúng tôi tuyên truyền những bất công và bất công trong quá khứ. Và chúng tôi tiếp tục bỏ qua những sai sót của các thuật toán này.

Kịch bản trường hợp tốt nhất là chúng tôi thừa nhận các thuật toán này vốn không tốt hơn con người. Chúng tôi quyết định những gì chúng tôi muốn là con người, những gì chúng tôi đang phấn đấu. Những gì chúng ta muốn xã hội trông như thế nào, và chúng ta dạy những giá trị đó. Nếu chúng ta làm điều đó thành công, những thuật toán này có thể tốt hơn con người.

CT: Người thường có thể đóng vai trò gì?

CO: Vai trò quan trọng nhất mà một cá nhân có thể đóng là không hoàn toàn tin tưởng bất kỳ thuật toán nào. Để có một lượng lớn sự hoài nghi. Nếu bạn đang được đánh giá trên một thuật toán, hãy hỏi 'Làm sao tôi biết nó công bằng, làm sao tôi biết nó hữu ích, làm sao tôi biết nó chính xác? Tỷ lệ lỗi là gì? Thuật toán này thất bại cho ai? Nó thất bại phụ nữ hay dân tộc thiểu số? ' Hỏi loại câu hỏi đó.

Điều thứ hai, ngoài sự hoài nghi, là nếu bạn nghĩ rằng một thuật toán không công bằng với bạn hoặc người khác là tổ chức với những người khác. Một ví dụ gần đây là giáo viên. Các mô hình thống kê về giáo viên giá trị gia tăng là khủng khiếp, tạo số gần như ngẫu nhiên. Nhưng họ đã được sử dụng để quyết định những gì giáo viên nên có nhiệm kỳ và những gì giáo viên nên bị sa thải, trên khắp Hoa Kỳ.

Đề nghị của tôi là cho họ để có được liên minh của họ để đẩy lùi. Và điều này đã xảy ra ở một số nơi. Nhưng thật đáng ngạc nhiên khi có rất ít sự kháng cự vì bản chất toán học của hệ thống tính điểm.

CT: Làm thế nào bạn nhận được vào 'dữ liệu lớn'?

CO: Tôi đã làm việc ở Phố Wall và chứng kiến ​​cuộc khủng hoảng tài chính từ bên trong. Tôi chán ghét cách toán học được sử dụng để lợi dụng người khác hoặc đánh lừa mọi người. Tôi đã thấy loại thiệt hại có thể đến từ những lời nói dối toán học, cái mà tôi gọi là 'vũ khí hóa toán học'.

Tôi quyết định tránh xa nó, vì vậy tôi đã tham gia vào Chiếm phố Wall và bắt đầu làm việc như một nhà khoa học dữ liệu. Tôi dần nhận ra rằng chúng ta đang nhìn thấy sự cường điệu thiếu sót và sai lệch xung quanh các thuật toán dữ liệu sai lệch xảy ra bên ngoài Phố Wall, và điều đó sẽ dẫn đến rất nhiều thiệt hại. Sự khác biệt là trong khi mọi người trên khắp thế giới nhận thấy cuộc khủng hoảng tài chính, tôi không nghĩ mọi người sẽ nhận thấy sự thất bại của các thuật toán dữ liệu lớn này, bởi vì chúng thường xảy ra ở cấp độ cá nhân.

Đọc phần một của cuộc thảo luận của chúng tôi với Tiến sĩ O'Neil tại đây. Cuốn sách của Tiến sĩ Cathy O'Neil, Vũ khí hủy diệt toán học: Làm thế nào dữ liệu lớn làm tăng bất bình đẳng và đe dọa nền dân chủ, hiện đã có.