AI 개발과 관련하여 이해 관계자가 직면 한 문제에 기여
의사 결정 : 투명성과 해석 성 자율 주행 차에서 보험금 관리에 이르기까지 다양한 작업을 수행하는 인공 지능으로 AI 에이전트가 내린 결정을 이해하는 것이 중요합니다. 그러나 알고리즘 결정에 대한 투명성은 때때로 기업 또는 국가의 비밀 또는 기술 문해력에 의해 제한됩니다. 기계 학습은 프로그래머에게도 모델의 내부 결정 논리를 항상 이해할 수 있는 것은 아니기 때문에 이를 더욱 복잡하게 만듭니다. 학습 알고리즘은 개방적이고 투명할 수 있지만 생성하는 모델은 그렇지 않을 수 있습니다. 이것은 기계 학습 시스템의 개발에 영향을 주지만 더 중요한 것은 안전한 배포와 책임입니다. 자율 주행 자동차가 기술이 작동하는지 확인하는 것뿐만 아니라 사고 발생 시 책임을 결정하기 위해 특정 조치를 취하는 이유를 이해할 필요..
카테고리 없음
2021. 1. 31. 11:07