AI có thể có xu hướng?

Tác Giả: Laura McKinney
Ngày Sáng TạO: 5 Tháng Tư 2021
CậP NhậT Ngày Tháng: 26 Tháng Sáu 2024
Anonim
AI có thể có xu hướng? - Công Nghệ
AI có thể có xu hướng? - Công Nghệ

NộI Dung


Lấy đi:

Trong những năm gần đây, AI ngày càng được áp dụng và áp dụng vào mọi thứ, từ đánh giá vẻ đẹp đến đánh giá nguy cơ tái phạm. Khi làm như vậy, nó cũng đã duy trì các tiêu chuẩn hỗ trợ sự thiên vị và phân biệt đối xử trong một số trường hợp.

Sự tiến bộ của công nghệ có tiềm năng thực sự dân chủ hóa việc tiếp cận thông tin và cơ hội. Tuy nhiên, trong một số trường hợp, nó đang được sử dụng theo những cách củng cố quan niệm rằng trong xã hội của chúng ta, một số người bình đẳng hơn những người khác.

Đây là những gì chúng tôi đã thấy trong bảy trường hợp sau đây trong đó trí tuệ nhân tạo (AI) được sử dụng một cách có chủ ý để loại trừ một số loại nhất định hoặc trong đó nó chỉ phản ánh sự thiên vị của các lập trình viên con người với hiệu ứng phân biệt đối xử.


Xu hướng làm đẹp AI

Vẻ đẹp có thể nằm trong mắt của kẻ si tình, nhưng khi cái nhìn chủ quan đó có thể lập trình AI, bạn đã có sự thiên vị trong chương trình. Rachel Thomas đã báo cáo về một tập như vậy trong một cuộc thi sắc đẹp từ beauty.ai vào năm 2016. Kết quả cho thấy làn da sáng hơn được đánh giá hấp dẫn hơn so với những người da tối.

Năm sau, Face FaceApp, sử dụng các mạng thần kinh để tạo các bộ lọc cho các bức ảnh, đã tạo ra một bộ lọc độ nóng sáng làm sáng da người và mang lại cho họ nhiều đặc điểm châu Âu hơn.

Xu hướng giới tính trong ngôn ngữ

Thomas cũng trích dẫn một ví dụ tài liệu về các bản dịch mang theo những kỳ vọng rập khuôn về sự nghiệp. Điểm bắt đầu là hai câu: "Cô ấy là bác sĩ. Anh ấy là một y tá."


Nếu sau đó bạn dịch chúng sang tiếng Thổ Nhĩ Kỳ và quay lại tiếng Anh, bạn sẽ nhận được loại kết quả mà bạn có thể mong đợi từ một trò chơi trên điện thoại.

Thay vì nhận được những gì bạn bắt đầu với, bạn đã nhận được loại kỳ vọng của những năm 1950, "Anh ấy là một bác sĩ. Cô ấy là một y tá." Cô giải thích rằng đó là do đại từ số ít trung tính về giới tính trong ngôn ngữ Thổ Nhĩ Kỳ sẽ chỉ định giới tính dựa trên những kỳ vọng và thiên kiến ​​khuôn mẫu. (Đọc Phụ nữ trong AI: Củng cố chủ nghĩa phân biệt giới tính và định kiến ​​với công nghệ.)

Mặc dù sự thiên vị về chủng tộc và giới tính lọc vào hình ảnh và ngôn ngữ là nguyên nhân gây ra sự phật ý, chúng không hoàn toàn giống với sự phân biệt đối xử tích cực do AI, nhưng điều đó cũng đã xảy ra.

Bằng chứng của nó là một ảnh chụp màn hình về những hạn chế được đặt cho một quảng cáo thuộc danh mục nhà ở cho phép tùy chọn thu hẹp đối tượng bằng cách kiểm tra loại trừ các danh mục như người Mỹ gốc Phi, người Mỹ gốc Á hoặc người gốc Tây Ban Nha. Quảng cáo có thể được xem ở đây.

Như ProPublica chỉ ra, hiệu ứng phân biệt đối xử của những quảng cáo như vậy là bất hợp pháp cả theo Đạo luật Nhà ở Công bằng năm 1968 và Đạo luật Dân quyền năm 1964. Bảo vệ duy nhất trong trường hợp này là quảng cáo không dành cho chính nhà ở, vì nó không phải là ' t về một tài sản hoặc nhà để bán hoặc cho thuê.

Tuy nhiên, đã có những trường hợp nhắm mục tiêu khác cho thấy sự thiên vị chủng tộc và điều đó đã thúc đẩy các thực thể khác nhau đưa vụ kiện dân sự chống lại mạng xã hội. Như Wired đã báo cáo, cuối cùng đã quyết định điều chỉnh công nghệ nhắm mục tiêu quảng cáo của mình do giải quyết năm trường hợp pháp lý buộc tội cho phép phân biệt đối xử với người thiểu số thông qua quảng cáo vào tháng 3 năm 2019.

Trong báo cáo về thỏa thuận giải quyết, ACLU đã chỉ ra những quảng cáo được nhắm mục tiêu như vậy có thể xảo quyệt đến mức nào, vì người thiểu số và phụ nữ thậm chí không nhận ra rằng họ không được cấp quyền truy cập thông tin, nhà ở và cơ hội việc làm được chia sẻ với đàn ông da trắng.

Khi nhiều người truy cập internet để tìm việc làm, căn hộ và cho vay, có một rủi ro thực sự là việc nhắm mục tiêu quảng cáo sẽ nhân rộng và thậm chí làm trầm trọng thêm sự thiên vị về chủng tộc và giới tính trong xã hội. Hãy tưởng tượng nếu một chủ nhân chọn chỉ hiển thị quảng cáo cho các công việc kỹ thuật cho nam giới - không chỉ những người dùng không được xác định là đàn ông không bao giờ nhìn thấy những quảng cáo đó, họ cũng sẽ không bao giờ biết những gì họ bỏ lỡ.

Rốt cuộc, chúng tôi hiếm khi có một cách để xác định quảng cáo mà chúng tôi không thấy trực tuyến. Sự phân biệt đối xử này là vô hình đối với người dùng bị loại trừ khiến mọi việc trở nên khó khăn hơn.

2. Phân biệt giới tính và độ tuổi trong công việc

Trong số các trường hợp pháp lý có sự phân biệt đối xử bất hợp pháp trong nhà ở mà nhắm mục tiêu của Cho phép. Trong báo cáo về thỏa thuận giải quyết, ProPublica cho biết họ đã thử nghiệm nền tảng này và đã thành công trong việc mua quảng cáo liên quan đến nhà ở trên các nhóm bị loại trừ như người Mỹ gốc Phi và người Do Thái, và trước đó đã tìm thấy quảng cáo việc làm trừ người dùng theo độ tuổi và giới tính được đặt bởi các công ty đó là tên hộ gia đình.

Một số quảng cáo việc làm mà ACLU tìm thấy rõ ràng chỉ nhắm vào nam giới trong một độ tuổi cụ thể, vì người dùng có thể tìm thấy khi nhấp vào câu trả lời tại sao họ được hiển thị quảng cáo cụ thể đó, được đăng trong một bài viết khác của Wired. ACLU đã chịu trách nhiệm với Ủy ban cơ hội việc làm bình đẳng chống lại mạng xã hội và các công ty đã đặt quảng cáo với lý do họ vi phạm cả luật lao động và quyền công dân.

Phân biệt đối xử với việc thuê người trên 40 tuổi vi phạm Đạo luật phân biệt tuổi tác liên bang trong Đạo luật việc làm (ADEA). Nhưng chỉ nhắm mục tiêu quảng cáo việc làm cho những người dưới độ tuổi đó là một trong những điều được nền tảng kích hoạt.

ProPublica cho rằng trọng tâm của một trong những báo cáo của mình cho thấy quảng cáo việc làm nào được viết hoa trên hình thức loại trừ bất hợp pháp này theo độ tuổi. Các tên hộ gia đình có tên khác bao gồm Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Fund For The Public Interest, Goldman Sach, OpenWorks, và những người khác.

Nhận diện khuôn mặt

Nhận dạng khuôn mặt của chính xác là chính xác, nếu bạn là một chàng trai da trắng tuyên bố tiêu đề của một bài báo của New York Times được xuất bản vào tháng 2 năm 2018. Nó đã trích dẫn các kết quả tìm thấy mối tương quan rõ rệt giữa tông màu da và nhận dạng lỗi:

Theo một nghiên cứu mới, phá vỡ nền tảng tươi mới bằng cách đo lường cách thức công nghệ hoạt động trên những người thuộc chủng tộc và giới tính khác nhau.

Những phát hiện này được ghi nhận cho Joy Buolamwini, một nhà nghiên cứu tại MIT Media Lab, và người sáng lập Liên minh Công lý Thuật toán (AJL). Lĩnh vực nghiên cứu của cô là những thành kiến ​​làm nền tảng cho AI, dẫn đến kết quả sai lệch như vậy khi nhận ra khuôn mặt không phù hợp với tiêu chuẩn nam giới da trắng đặt ra cho người mẫu.

Buolamwini đã trình bày vấn đề sai lệch về chủng tộc và giới tính để nhận dạng khuôn mặt trong cuộc nói chuyện TED 2017, mà cô đã đề cập đến đầu năm 2018 của mình trong video về Dự án Sắc thái giới tính từ Phòng thí nghiệm MIT:

<

Việc đánh vần trong phần mô tả của video là không kiểm soát được sự thiên vị của AI, "sẽ làm tê liệt thời đại tự động hóa và làm trầm trọng thêm sự bất bình đẳng nếu bị bỏ lại." Rủi ro không gì khác hơn là "mất đi những lợi ích đạt được với phong trào dân quyền và phong trào phụ nữ dưới sự giả định sai lầm về tính trung lập của máy móc".

Mô tả video bổ sung cảnh báo mà nhiều người khác đã chỉ ra, như chúng ta đã thấy trong Phụ nữ trong AI: Củng cố chủ nghĩa phân biệt giới tính và định kiến ​​với công nghệ: "Các hệ thống tự động vốn không phải là trung lập. Chúng phản ánh các ưu tiên, ưu tiên và định kiến ​​về mã hóa nhìn chằm chằm vào những người có khả năng nhào nặn trí tuệ nhân tạo. "

Vào ngày 25 tháng 1 năm 2019, Buolamnwini đã xuất bản một bài đăng Trung bình dựa trên nghiên cứu của riêng cô và của các nhà nghiên cứu bổ sung, người đã chỉ ra lỗi của AI dẫn đến lỗi trong Amazon giật Rekognition và yêu cầu công ty ngừng bán dịch vụ AI cho các sở cảnh sát.

Mặc dù Rekognition có thể tự hào về độ chính xác 100% khi nhận ra nam giới da sáng và độ chính xác 98,7% ngay cả đối với nam giới sẫm màu hơn, khi nói đến nữ giới, độ chính xác giảm xuống 92,9% đối với nữ giới nhẹ hơn. Thậm chí rõ ràng hơn là sự giảm mạnh xuống chỉ chính xác 68,6% cho những con cái tối hơn.

Nhưng Amazon đã từ chối. Một bài báo của Venture Beat đã trích dẫn một tuyên bố của Tiến sĩ Matt Wood, tổng giám đốc về nghiên cứu sâu và AI tại AWS, trong đó ông nhấn mạnh rằng các phát hiện của các nhà nghiên cứu không phản ánh cách sử dụng AI thực sự, giải thích:

Phân tích khuôn mặt và nhận dạng khuôn mặt hoàn toàn khác nhau về công nghệ cơ bản và dữ liệu được sử dụng để đào tạo họ. Cố gắng sử dụng phân tích khuôn mặt để đánh giá độ chính xác của nhận dạng khuôn mặt là điều không nên, vì nó không phải là thuật toán dự định cho mục đích đó.

Nhưng nó không chỉ là những người liên kết với các trung tâm nghiên cứu lớn, những người đã tìm thấy các thuật toán là rất có vấn đề. ACLU đã chạy thử nghiệm riêng của mình với chi phí hợp lý nhất là 12,33 đô la, theo báo cáo của Gizmodo. Nó phát hiện ra rằng Rekognition phù hợp với 28 thành viên của Quốc hội với hình ảnh của tội phạm.

Nhận dạng sai được đưa ra khi ACLU ở Bắc California giao nhiệm vụ Rekognition với các bức ảnh phù hợp với tất cả 535 thành viên của Quốc hội chống lại 25.000 bức ảnh chụp lén có sẵn công khai.

Vì 11 trong số 28 người là người da màu, nó phản ánh tỷ lệ lỗi đáng kể 39% đối với họ. Ngược lại, tỷ lệ lỗi nói chung là 5% dễ chấp nhận hơn. Sáu thành viên của Caucus Đen của Quốc hội, những người nằm trong số những Rekognition liên quan đến Mugshots, đã bày tỏ mối quan tâm của họ trong một bức thư ngỏ tới CEO của Amazon.

Xu hướng tái phạm

Sự thiên vị được nhúng trong AI so với người da màu trở thành một vấn đề nghiêm trọng hơn khi nó có ý nghĩa nhiều hơn là một lỗi nhận dạng. Đó là phát hiện của một cuộc điều tra ProPublica khác vào năm 2016. Hậu quả của sự thiên vị như vậy không gì khác hơn là tự do cá nhân cùng với việc bỏ qua rủi ro thực sự từ người có màu da được thuật toán ưa chuộng.

Bài báo đề cập đến hai vụ án song song liên quan đến một thủ phạm trắng và một vụ án đen. Một thuật toán đã được sử dụng để dự đoán cái nào có khả năng vi phạm một lần nữa. Người da đen được đánh giá là có rủi ro cao và người da trắng có rủi ro thấp.

Dự đoán đã hoàn toàn sai, và người da trắng được tự do lại phải bị cầm tù. Điều này là vô cùng có vấn đề bởi vì các tòa án dựa vào việc chấm điểm khi quyết định tạm tha, và điều đó có nghĩa là sự thiên vị chủng tộc được đưa vào chương trình có nghĩa là đối xử bất bình đẳng theo luật.

ProPublica đã đưa thuật toán vào thử nghiệm của riêng mình, so sánh điểm số rủi ro của hơn 7.000 người đã bị bắt tại Hạt Broward, Florida, vào năm 2013 và 2014 với con số có các cáo buộc hình sự mới chống lại họ trong hai năm sau đó.

Những gì họ tìm thấy là chỉ có 20% dự đoán lặp lại các tội ác có tính chất bạo lực đã trở thành sự thật và nhiều tội phạm nhỏ hơn chỉ xảy ra đối với 61% những người có điểm số cho thấy rủi ro.

Vấn đề thực sự không chỉ là sự thiếu chính xác mà là sự thiên vị chủng tộc liên quan:

  • Công thức đặc biệt có khả năng đánh dấu sai các bị cáo da đen là tội phạm tương lai, dán nhãn sai cho họ theo cách này với tỷ lệ gần gấp đôi so với các bị cáo da trắng.
  • Bị cáo da trắng bị dán nhãn sai là rủi ro thấp thường xuyên hơn so với bị cáo da đen.

Trong thực tế, điều này chuyển thành tỷ lệ lỗi 45% cho người da đen và 24% cho người da trắng. Bất chấp thống kê rõ ràng đó, Thomas đã báo cáo rằng Tòa án Tối cao Wisconsin vẫn duy trì việc sử dụng thuật toán này. Cô cũng chi tiết các vấn đề khác liên quan đến thuật toán tái phạm.