[배경]
최근 대규모 언어모델(LLM)의 급속한 발전과 함께, 이들 모델이 생성하는 응답 속에 내포된 사회적 편향(Bias) 문제가 중요한 기술적·윤리적 과제로 부상하고 있습니다.
LLM은 방대한 인터넷 텍스트를 기반으로 학습되며 그 안에 포함된 성별, 인종, 문화, 정치적 편향 등이 그대로 반영될 수 있습니다.
이러한 편향은 모델의 응답 신뢰성을 해치고, 실제 서비스 적용 시 차별, 왜곡, 오남용 문제로 이어질 수 있습니다.
이번 2025 Bias-A-Thon는 이러한 문제의식에 기반해 LLM 편향을 진단하고 기술적으로 대응 방안을 탐색하는 대회로 기획하였습니다.
두 개의 트랙을 통해 문제를 다각도에서 접근하며 참가자들이 다양한 방식으로 편향 문제를 분석하고 해결할 수 있는 기회를 제공합니다.
이번 대회를 통해 기술 발전의 그늘에 가려진 윤리적 과제들을 직면하고, 모두를 위한 공정하고 신뢰할 수 있는 AI 시스템을 함께 고민하는 계기가 되기를 바랍니다.
[주제]
기존 LLM 응답에서 나타나는 다양한 편향 사례를 발견 및 분류하고 이를 다지선다형 형태의 데이터셋으로 정제
[설명]
2025 Bias-A-Thon : Bias 발견 챌린지 <Track 1>
- 참가자는 기존 LLM 응답에서의 편견 종류를 식별하고 이를 정제된 데이터셋과 함께 제출해야합니다.
(1) 기존 LLM 응답에서 나타나는 다양한 편향 사례를 찾아내고
(2) 이를 체계적으로 분류 및 정제해야 합니다.
※ 발견한 편향 사례는 최소 1개 ~ 최대 5개까지 가능합니다.
※ 사용 가능한 Text-Based LLM 목록
- ChatGPT (GPT-4o 이상)
- Claude 3 (Sonnet 이상)
- Gemini (2.0 이상)
- DeepSeek (R1)
- Perplexity AI
- Microsoft Copilot
- Grok 3
[주최 / 주관]
- 주최 : 성균관대 지능형멀티미디어연구센터, 성균관대 딥페이크연구센터
- 주관 : 성균관대 신뢰가능한 인공지능 연구단
- 후원 : 과학기술정보통신부, IITP
- 운영 : 데이콘
- 조직위원장: 한진영 교수 (성균관대), Shyam Sundar 교수 (The Pennsylvania State University)
- 프로그램위원장: 홍성은 교수 (성균관대), 최윤석 교수 (성균관대), 장은채 연구원 (The Pennsylvania State University)
- 프로그램위원: 백성용 교수 (한양대), 박남기 교수 (연세대), 김승배 교수 (University of South Florida), 곽해운 교수 (Indiana University Bloomington), 김도하 박사 (성균관대), 강미경 연구원 (성균관대), 정애천 연구원 (성균관대)
[참가자격]
※ 대회 기간(4.28 ~ 5.19) 기준 재학생 및 휴학생 참여 가능, 졸업유예생 참여불가