AI 시스템의 편향은 사회적 편견이 데이터에 반영되어 발생할 수 있으며, 이는 특정 집단에 불리한 영향을 미칠 수 있습니다. ISO/IEC 24027:2021 표준을 기반으로 AI 시스템의 편향과 공정성에 대한 심층적인 과정을 제공합니다. 이 과정은 AI 기술 개발에 있어서 윤리적이고 공정한 접근 방식을 강조하며, AI 시스템에서 편향을 식별하고 이를 완화하는 방법을 제공합니다. 참가자는 이 과정을 통해 AI 시스템에서의 편향을 평가하고 해결할 수 있는 실용적인 방법을 배울 수 있습니다.
▶교육대상
1. AI 기술 개발 및 윤리에 관심이 있는 전문가
2. AI 시스템 개발자, 데이터 과학자, 기술 책임자 및 관련 분야 종사 학습자
3. AI 시스템의 공정성과 윤리를 중요시하는 기업 및 기관
▶주요교육내용
1. ISO/IEC 24027:2021 AI 시스템 및 AI 지원 의사 결정의 편향성 이해
▶수료기준
|
항목 |
진도율 |
진행단계평가 |
최종평가 |
과제 |
수료점수 |
|
평가비율 |
100% |
0% |
0% |
0% |
60점이상 |
|
수료조건 |
80% |
없음 |
없음 |
없음 |
※ 수료기준은 각 평가항목의 점수가 수료기준 점수 이상이고 총점이 60점 이상이어야 합니다.