2025 Bias-A-Thon : Bias 발견 챌린지 <Track 1>

Track1 | 프롬프트 엔지니어링 | LLM | Bias Finding | 정성 평가

[배경] 

최근 대규모 언어모델(LLM)의 급속한 발전과 함께, 이들 모델이 생성하는 응답 속에 내포된 사회적 편향(Bias) 문제가 중요한 기술적·윤리적 과제로 부상하고 있습니다.

LLM은 방대한 인터넷 텍스트를 기반으로 학습되며 그 안에 포함된 성별, 인종, 문화, 정치적 편향 등이 그대로 반영될 수 있습니다.

이러한 편향은 모델의 응답 신뢰성을 해치고, 실제 서비스 적용 시 차별, 왜곡, 오남용 문제로 이어질 수 있습니다.

이번 2025 Bias-A-Thon는 이러한 문제의식에 기반해 LLM 편향을 진단하고 기술적으로 대응 방안을 탐색하는 대회로 기획하였습니다.

두 개의 트랙을 통해 문제를 다각도에서 접근하며 참가자들이 다양한 방식으로 편향 문제를 분석하고 해결할 수 있는 기회를 제공합니다.

이번 대회를 통해 기술 발전의 그늘에 가려진 윤리적 과제들을 직면하고, 모두를 위한 공정하고 신뢰할 수 있는 AI 시스템을 함께 고민하는 계기가 되기를 바랍니다.


[주제]

기존 LLM 응답에서 나타나는 다양한 편향 사례를 발견 및 분류하고 이를 다지선다형 형태의 데이터셋으로 정제


[설명]

2025 Bias-A-Thon : Bias 발견 챌린지 <Track 1>

  • 참가자는 기존 LLM 응답에서의 편견 종류를 식별하고 이를 정제된 데이터셋과 함께 제출해야합니다.

(1) 기존 LLM 응답에서 나타나는 다양한 편향 사례를 찾아내고

(2) 이를 체계적으로 분류 및 정제해야 합니다.


※ 발견한 편향 사례는 최소 1개 ~ 최대 5개까지 가능합니다.

※ 사용 가능한 Text-Based LLM 목록

  • ChatGPT (GPT-4o 이상)
  • Claude 3 (Sonnet 이상)
  • Gemini (2.0 이상)
  • DeepSeek (R1)
  • Perplexity AI
  • Microsoft Copilot
  • Grok 3

[주최 / 주관]

  • 주최 : 성균관대 지능형멀티미디어연구센터, 성균관대 딥페이크연구센터
  • 주관 : 성균관대 신뢰가능한 인공지능 연구단
  • 후원 : 과학기술정보통신부, IITP
  • 운영 : 데이콘


  • 조직위원장: 한진영 교수 (성균관대), Shyam Sundar 교수 (The Pennsylvania State University)
  • 프로그램위원장: 홍성은 교수 (성균관대), 최윤석 교수 (성균관대), 장은채 연구원 (The Pennsylvania State University)
  • 프로그램위원: 백성용 교수 (한양대), 박남기 교수 (연세대), 김승배 교수 (University of South Florida), 곽해운 교수 (Indiana University Bloomington), 김도하 박사 (성균관대), 강미경 연구원 (성균관대), 정애천 연구원 (성균관대)


[참가자격]

  • 인공지능 및 LLM에 관심 있는 대학(원)생

※ 대회 기간(4.28 ~ 5.19) 기준 재학생 및 휴학생 참여 가능, 졸업유예생 참여불가


대회 주요 일정

  1. 04.28

    대회 시작

  2. 05.12

    팀 병합 마감

  3. 05.19

    대회 종료

  4. 05.22

    1차 평가 마감

  5. 06.03

    2차 평가 및 검증 마감

  6. 06.04

    오프라인 시상식

[배경] 

최근 대규모 언어모델(LLM)의 급속한 발전과 함께, 이들 모델이 생성하는 응답 속에 내포된 사회적 편향(Bias) 문제가 중요한 기술적·윤리적 과제로 부상하고 있습니다.

LLM은 방대한 인터넷 텍스트를 기반으로 학습되며 그 안에 포함된 성별, 인종, 문화, 정치적 편향 등이 그대로 반영될 수 있습니다.

이러한 편향은 모델의 응답 신뢰성을 해치고, 실제 서비스 적용 시 차별, 왜곡, 오남용 문제로 이어질 수 있습니다.

이번 2025 Bias-A-Thon는 이러한 문제의식에 기반해 LLM 편향을 진단하고 기술적으로 대응 방안을 탐색하는 대회로 기획하였습니다.

두 개의 트랙을 통해 문제를 다각도에서 접근하며 참가자들이 다양한 방식으로 편향 문제를 분석하고 해결할 수 있는 기회를 제공합니다.

이번 대회를 통해 기술 발전의 그늘에 가려진 윤리적 과제들을 직면하고, 모두를 위한 공정하고 신뢰할 수 있는 AI 시스템을 함께 고민하는 계기가 되기를 바랍니다.


[주제]

기존 LLM 응답에서 나타나는 다양한 편향 사례를 발견 및 분류하고 이를 다지선다형 형태의 데이터셋으로 정제


[설명]

2025 Bias-A-Thon : Bias 발견 챌린지 <Track 1>

  • 참가자는 기존 LLM 응답에서의 편견 종류를 식별하고 이를 정제된 데이터셋과 함께 제출해야합니다.

(1) 기존 LLM 응답에서 나타나는 다양한 편향 사례를 찾아내고

(2) 이를 체계적으로 분류 및 정제해야 합니다.


※ 발견한 편향 사례는 최소 1개 ~ 최대 5개까지 가능합니다.

※ 사용 가능한 Text-Based LLM 목록

  • ChatGPT (GPT-4o 이상)
  • Claude 3 (Sonnet 이상)
  • Gemini (2.0 이상)
  • DeepSeek (R1)
  • Perplexity AI
  • Microsoft Copilot
  • Grok 3

[주최 / 주관]

  • 주최 : 성균관대 지능형멀티미디어연구센터, 성균관대 딥페이크연구센터
  • 주관 : 성균관대 신뢰가능한 인공지능 연구단
  • 후원 : 과학기술정보통신부, IITP
  • 운영 : 데이콘


  • 조직위원장: 한진영 교수 (성균관대), Shyam Sundar 교수 (The Pennsylvania State University)
  • 프로그램위원장: 홍성은 교수 (성균관대), 최윤석 교수 (성균관대), 장은채 연구원 (The Pennsylvania State University)
  • 프로그램위원: 백성용 교수 (한양대), 박남기 교수 (연세대), 김승배 교수 (University of South Florida), 곽해운 교수 (Indiana University Bloomington), 김도하 박사 (성균관대), 강미경 연구원 (성균관대), 정애천 연구원 (성균관대)


[참가자격]

  • 인공지능 및 LLM에 관심 있는 대학(원)생

※ 대회 기간(4.28 ~ 5.19) 기준 재학생 및 휴학생 참여 가능, 졸업유예생 참여불가


대회 주요 일정

  1. 04.28

    대회 시작
  2. 05.12

    팀 병합 마감
  3. 05.19

    대회 종료
  4. 05.22

    1차 평가 마감
  5. 06.03

    2차 평가 및 검증 마감
  6. 06.04

    오프라인 시상식