어떤 장벽
Dr.Sephus는 돌고 돌아서 AWS로 왔고 미시시피주에서 자란 후 최종적으로 Partpic이라는 테크 스타트업에 참여하였습니다. Partpic은 인공지능과 기계학습(AI/ML) 회사로 다음과 같은 훌륭한 전제를 가지고 있었다. 사용자는 공구와 부품 사진을 찍을 수 있고, Partpic 앱은 사진을 알고리즘적으로 분석해 부품을 식별하고 부품이 무엇이며, 어디서 더 사야 하는지에 대한 정보를 제공한다. Partpic은 2016년 아마존에 인수됐고, Dr. 세파스는 자신의 기계학습 기술을 AWS에 들여왔다. 질문에 그녀는 접근이 AI/ML 사용 확대에 대한 가장 큰 장벽이라고 지적하였습니다. 많은 점에서, 그것은 디지털 디바이드의 낡은 문제에 있어서의 또 하나의 문제입니다. 가장 일반적인 AI/ML 툴을 이용할 수 있는 것의 핵심 요소는 신뢰성이 높고 빠른 인터넷 접속을 갖는 것이며, 그녀의 경력에서 얻은 경험을 바탕으로 국가의 가난한 지역의 초등학교에서 기술에 접근할 수 없는 것은 아이들이 우리가 이야기하고 있는 것과 같은 도구를 사용할 수 있게 되는 길을 열어주는 것이라고 지적했습니다. 일전을 벌이다. 게다가 조기 액세스의 결여는, 만년의 테크놀로지에의 저항으로 이어집니다. "당신은 많은 사람들이 상당히 위협적이라고 생각하는 개념에 대해 이야기하고 있습니다."라고 그녀는 설명했습니다. 많은 사람이 무서워해요. 그들은 그 기술에 위협을 느끼고 있습니다.
일을 분할하지 말 것
단순히 접근성을 늘리는 것만이 아니라 기술학자가 AI/ML과 같은 복잡한 주제에 대해 일반인에게 전달하는 방식을 바꾸는 것도 이 격차에 대처하는 한 방법입니다. "우리는 기술자로서 쿨한 것을 만드는 것을 좋아하는 것이 많은 것으로 알고 있습니다"라고 세퍼스 박사는 말했습니다. 우리는 장기적인 영향을 생각하지 않지만 그렇기 때문에 이런 다양한 생각과 다른 시각을 갖는 것이 매우 중요합니다." 세퍼스 박사에 따르면 AWS는 기술팀에 참여하기 위해 사회학자와 심리학자를 고용하고 있으며 테크놀로지에 강제로 참여시키는 것이 아니라 디지털 디바이드에 대처할 방법을 모색하고 있다고 합니다. 복잡한 AI/ML 주제를 일상적인 액션 관점에서 재구성하는 것만으로 장벽을 제거할 수 있습니다. 세피스 박사는 대부분의 사람들이 휴대전화를 갖고 있다는 것을 지적하는 것도 한 방법이라고 설명했습니다.휴대전화와 통화하거나 얼굴인식을 사용하여 잠금을 해제하거나 영화나 다음 곡을 추천받을 때 이 모든 것들이 기계학습과 상호작용하는 예입니다. 누구나, 특히 기술적인 아마추어가, AI/ML에 의해서 움직이고 있는 것을 사람들에게 나타내는 것이, 계시적이라고는 할 수 없습니다. 고객이 현재 있는 장소에서 고객을 만나 이들 기술이 고객의 일상생활에 어떤 영향을 미치는지 보여주고 매우 친근한 방식으로 프로그래밍을 할 수 있습니다.그것은 우리가 집중해야 할 일이라고 생각합니다」라고 그녀는 말했습니다.
기업은 어떤 의미를 가지는가
개인의 수용과 AI/ML 접근성을 외면하고 AI를 싫어하는 기업이나 조직이 기계학습을 활용하기 시작하는 방향으로 어떻게 몸을 굽히는지를 쉽게 보며 세퍼스 박사는 은 총알이나 빠른 답은 없다고 설명했다. 이것은 비즈니스 이야기이긴 하지만 모든 관계자로부터 인수되는 느린 과정입니다. 많은 기업이 기술 데모나 민첩한 엔터프라이즈 세일즈 팀에 휩쓸리고 있지만, Dr. Sephus씨는 AI/ML 구현의 가장 좋은 유형은 기업의 기술 측으로부터의 「풀뿌리」의 수용과 리더십 측으로부터의 지원 모두 있는 곳에서 발생한다고 말했다. 엔터프라이즈 IT 아키텍처에서 일해 본 사람이라면 누구나 할 수 있는 일이지만 리더십 인수는 새로운 기술 솔루션으로는 어려울 수 있습니다.그런 입장에 있다면 AI/ML을 상사에게 판매하는 방법이 옳은 것이 되는 것입니다. 조직의 비즈니스 프랙티스와 보안 문제를 이해하고 AI/ML 툴을 포함하도록 프로세스를 변경함으로써 잠재적인 리스크를 검토합니다. 이것은 일반 후렴구입니다.문제를 평가한 후 예측하지 못한 예기치 못한 문제를 자문해 보세요. 복잡하게 하면 AI/ML의 풍경은 어느 규모의 회사에 대해 이야기하느냐에 따라 달라집니다. 소규모 기업에서는 대규모 데이터셋을 취급할 필요가 없는 경우가 있습니다.이는 비용을 절감하고 툴과 프로세스를 단순화할 수 있음을 의미합니다. 대규모 기업에서는 처리해야 할 데이터의 크기와 툴의 복잡성 모두에서 더 큰 문제가 발생하고 있습니다. 하지만 일을 복잡하게 만드는 또 다른 잠재적인 문제가 있습니다. 그것은 편견입니다.
바이어스 회피
궁극적으로 기계학습 데이터셋과 툴은 사람들에 의해 구축되고 사람들에게는 사각지대가 있습니다. AI/ML에서는 이러한 맹점이 불편해 보이는 것은 극히 일반적인 일로 종종 AI/ML 실험 결과에 나타난다. 편견의 도입을 확인하고 이들을 배제하기 위해 그 과정의 모든 단계에서 주의를 기울일 필요가 있습니다. 세퍼스 박사는 바이어스 회피와 그것이 얼마나 광범위해야 하는지에 대해 조금 설명했습니다. 중요한 포인트: 팀은 목표를 신중하게 생각하고 배드 엔드의 상태에 대해 질문한 후 그러한 바람직하지 않은 결과가 발생하지 않도록 후방에서 작업해야 합니다. 데이터는 적절하게 다양해야 합니다(얼굴인식 데이터셋을 주로 피부가 얇은 사람으로 구성하는 것은 바람직하지 않습니다.이런 결과를 얻을 수 있기 때문입니다). 세파스 박사에 따르면 또 다른 중요한 요인은 공공 데이터 세트의 내용을 이해하지 않고 맹목적으로 사용하는 것이 아니라는 것입니다. "우리가 봐 온 것에 놀랄 거예요"라고 그녀는 말했습니다.거기서 가장 일반적으로 판매되는 데이터셋, 특히 인간을 다루는 데이터셋을 보게 됩니다." 편견을 피하는 노력이 없다면 AI/ML은 나쁜 결과를 초래할 수 있습니다. 세퍼스 박사는 금융기술 세계에서는 알고리즘이 지원하는 권고안이 대출 승인을 결정하는 데 사용되는 경우가 많으며 이는 문제가 될 수 있다고 지적했다. 금융기관은 법적으로는 대출 결정에서 인종차별을 명확히 고려하는 것이 금지돼 있지만 소수파 신청자는 가계소득이나 기타 부채 수준 등의 요인을 통제한 후에도 백인 신청자보다 주택담보대출 신청을 거부당할 가능성이 높다. 지난해 스탠퍼드 대학의 Laura Blattner와 시카고 대학의 Scott Nelson 두 재무 교수는 크레딧 점수 알고리즘이 인종적 마이너리티에 어떻게 불리해지는지를 조사하는 연구를 발표했습니다. 이들은 신청자의 신용점수와 이후 기본가격에 대한 데이터와 함께 대량의 신용결정 데이터셋을 취득했습니다. 이를 통해 대출받은 사람과 거절당한 사람의 신용실적을 비교할 수 있었습니다.
만약 누군가가 주택담보대출을 거절당하고 이후 다른 대출에서 채무불이행이 되었다면 그것은 은행이 이들을 거부하는 것이 옳다는 것을 시사한다. 저자들은 백인과 소수파 신청자에 대한 대출 승인율과 연체율을 비교한 결과 은행들이 신용위험이 좋은 흑인 신청자를 거부할 가능성이 높은 것으로 나타났다. 그들의 연구에서 블라트너와 넬슨은 이 격차에 대해 두 가지 가능한 설명을 검토하고 있습니다. 하나는 모델 바이어스로, 신용평가기관은 블랙보다 화이트 신청자 평가에 적합한 알고리즘을 선택한다. 이는 트레이닝 데이터 세트에 흑인보다 더 많은 백인 신청자가 포함된 경우 발생할 수 있습니다.따라서 백인 신청자의 신용도를 예측하기 위해 최적화되도록 설계되지 않은 훈련 알고리즘이 발생하고 흑인 신청자에 대해 불규칙한 결과가 발생할 수 있습니다. 하지만 연구자들은 최종적으로 알고리즘이 나쁘지 않다고 결론 내렸습니다. 이들은 몇 가지 대체 기계 학습 알고리즘을 실험해 모두 비슷한 결과를 도출했고 소수자와 저소득자를 위한 예측 정확도가 낮다는 것을 발견했다. 대신 블라트너와 넬슨은 데이터 바이어스가 백인과 소수파 지원자의 다른 취급을 설명하고 있다고 결론짓고 있습니다. 한 문제는 이른바 '신파일' 문제입니다. 마이너리티 주택담보대출 신청자는 평생 신용카드, 자동차 할부금융, 기타 신용상품이 적었던 경향이 있습니다. 사용하는 데이터가 적어지면 신용점수 알고리즘은 신청자의 신용도에 대한 신뢰도가 떨어지므로 신청을 거부할 가능성이 높아집니다. 물론 소수파 지원자의 신파일은 그들 자신의 잘못이 아니라 발생할 수 있다. 차별 때문에 그들은 인생의 빠른 단계에서 대출을 받지 못했을지도 모른다. 부모님은 그들을 대학에 보낼 여유가 없었기 때문에 수입이 줄었을지도 모른다. 알고리즘에는 그러한 컨텍스트가 없습니다.한정된 신용 이력이 표시되는 것만으로 위험이 높다는 것을 나타내고 있다고 결론짓습니다. 세파스 박사는 기업들에게 이런 종류의 데이터 문제에 대해 신중하게 생각하라고 촉구했습니다. "공개되어 있는 데이터셋을 액면 그대로 받아서는 안 됩니다"라고 그녀는 말했습니다. 데이터에 많은 문제가 있을 수 있다고 말했습니다.
'인공지능 > 인공지능' 카테고리의 다른 글
자각 로봇이 자신의 몸을 어떻게 사용하는지 스스로 배우게 되었다 (0) | 2022.07.25 |
---|---|
Wayfair 및 Spotify가 머신러닝을 사용하여 고객을 끌어들이는 방법 (2) | 2022.07.23 |
AI 기술: 근로자 위기 해결 방안 (0) | 2022.07.23 |
AI 기업이 얼굴 인식을 위해 수십억 장의 사진을 스크랩하였다 (0) | 2022.07.23 |
글로벌 AI에서 우분투의 아프리카적 가치 (0) | 2022.07.22 |
댓글