분석시각화 대회 코드 공유 게시물은
내용 확인 후
좋아요(투표) 가능합니다.
Track1: AI Agent 개발 <K intelligence 해커톤 2025>
*** 평가하시는 분들께 올립니다. ***
평가하시는 분들께 올립니다.
이 대회는 "믿:음" 모델 기반으로 "주제: 믿:음 2.0 Pro/Base/Mini 기반 B2B/B2G AI Agent 개발" 로 AI Agent 을 겨루는 것입니다.
서로 겨루며 배워가는 장이라고 생각합니다.
투표는 있는데 왜 투표했는지 그렇게 평가한 이유가 없거나, "참신해요" 처럼 두리뭉실한 경우가 많아 납득하기 어려운경우가 많아서 글을 올립니다.
[평가시]
댓글로 어떤점이 좋았고, 어떤점이 부족했는지,
그리고 투표한 이유가 무엇인지를 달아준다면
정말 투명하고, 서로 배울수 있어서 정말 좋은 대회가 되지 않을까 합니다.
UX 부분은 개발한 AI Agent 를 보여주기위한 도구라고 생각합니다.
설득력있고, 보기좋은 기획서 많습니다. 많이 배움니다.
하지만, AI Agent와 이에 대한 아이디어와 시장성, 실제 구현이 평가의 핵심 아닐런지요.
동의합니다.
졸업 작품 전시도 아니고, "@@이 화이팅" 같은 댓글로 도배된 글이 상위권에 위치한 것을 보면 대회 평가 방식에 대한 의구심이 생깁니다.
"AI Agent 개발" 해커톤인 만큼, 조금이라도 Agent에 대한 지식이 있는 분들이 평가하는 것이 공정하다고 생각합니다.
이러한 투표 방식은 사전에 충분히 안내된 상태에서 진행된 대회이므로, 지금 와서 문제점을 지적하는 것은 큰 의미가 없을 것으로 보입니다. 데이콘 측에서도 이러한 문제를 인지하고, 가중치 조절 등의 방식을 적용했을 것으로 예상됩니다. 다만, 여전히 일부 시스템에서는 이러한 문제를 완전히 해결하지 못하는 것으로 파악됩니다.
우선 우려하시는 부분에 대해서는 다른 사람들에게 내용을 공유하면 상대적으로 유리해지는 것이 사실입니다. 저 또한 이번 대회와 관련해 메일을 받아 내용을 확인한 적이 있습니다. 관심이 없던 대회라 하더라도 메일을 받으면 한번쯤 확인하고, 괜찮다면 투표를 할 수밖에 없습니다. 실제로 일부 팀은 랭커들을 대상으로 메일을 보내 투표를 유도하기도 했습니다. 그렇기에 따로 예선 평가 시스템에 대해 숙지하고, 이러한 방법을 유도하거나 정말 좋은 아이디어로 올라가신 분들도 계시기에 이러한 부분에 있어서는 이야기하기는 조심스럽다고 생각합니다.
다만, 말씀하신 문제점에 대해서는 개선이 필요하다고 생각됩니다. 이를 완화하기 위한 방안으로는 신규 가입자(가입 1주일 이하)나 휴먼 계정/신규 계정에 대한 투표 제한 등을 고려할 수 있습니다. 저도 확인해보니 이러한 문제점이 일부 나타난 것으로 보이지만, 특정인에게 부탁해 점수를 올리는 행위는 사실상 완전히 막기 어렵습니다. 그러나 다른 팀과의 공정한 경쟁을 위해서는 근본적인 문제를 수정할 필요가 있습니다.
DACON Co.,Ltd | CEO Kookjin Kim | 699-81-01021
Mail-order-sales Registration Number: 2021-서울영등포-1704
Business Providing Employment Information Number: J1204020250004
#901, Eunhaeng-ro 3, Yeongdeungpo-gu, Seoul 07237
E-mail dacon@dacon.io |
Tel. 070-4102-0545
Copyright ⓒ DACON Inc. All rights reserved
지인 200명정도 동원하면 기획력이나 구현성 상관없이 본선은 일단 갈수있는 예선 평가시스템이 아쉽긴합니다.