AI 시스템의 편향은 사회적 편견이 데이터에서 학습되어 의도치 않게 특정 집단에 불리한 영향을 미칠 수 있습니다. ISO/IEC 24027:2021 표준을 기반으로 AI 시스템의 편향과 공정성에 대한 심층적인 과정을 제공합니다. 이 과정은 AI 기술 개발에서 윤리적이고 공정한 접근의 중요성을 강조하며, 참가자는 AI 시스템의 편향을 인식하고 완화하는 방법을 배울 수 있습니다. AI 시스템의 수명 주기 전반에 걸쳐 발생할 수 있는 다양한 편향을 제어하는 데 필요한 기술적 도구와 접근 방식을 제공합니다.
▶교육대상
1. AI 개발자, 데이터 과학자, 기술 책임자, 윤리 전문가 및 AI 시스템을 개발하거나 사용하는 기업의 전문가들
2. AI 시스템의 윤리적 개발 및 공정성을 중요시하는 기관과 조직
▶주요교육내용
1. ISO/IEC TR 24027:2023 AI 시스템 및 AI 지원 의사결정의 편향성 소개 Part1
2. ISO/IEC TR 24027:2023 AI 시스템의 편향성 및 AI 지원 의사결정 소개 Part2
▶수료기준
|
항목 |
진도율 |
진행단계평가 |
최종평가 |
과제 |
수료점수 |
|
평가비율 |
100% |
0% |
0% |
0% |
60점이상 |
|
수료조건 |
80% |
없음 |
없음 |
없음 |
※ 수료기준은 각 평가항목의 점수가 수료기준 점수 이상이고 총점이 60점 이상이어야 합니다.