공모전

그로스앤챌린지 : 공모전, 대외활동 사이트 스펙업은 그챌

IT

금융보안원

261

FSI AIxData Challenge 2024

마감일

마감

참가 대상

대학(원)생

1등 상금

800만원

장소

온라인
소개

오픈소스 생성형 AI 모델을 응용/활용하여 분류 AI모델의 성능을 개선하기

📢 공모주제 - 이상금융거래 데이터셋으로 분류 AI모델을 구현하고, 오픈소스 생성형 AI 모델을 응용/활용하여 분류 AI모델의 성능을 개선 ✅ 주제 설명 1) 클래스 불균형이 심한 데이터셋의 특성을 고려하여 분류 AI모델 개발 2) 제공하는 데이터셋을 오픈소스 생성형 AI 모델 등 AI 기술에 응용 3) 이를 분류 AI모델에 활용함으로써 분류 AI모델의 성능을 개선 ※ 은행권 전자금융(입출금계좌) 자금이체 이상거래탐지 데이터로 개인신용정보 및 개인정보가 전혀 포함되지 않았으며, 실존하는 개인정보를 참고하지도 않은 임의로 랜덤 생성한 완전 가상의 데이터셋으로 진행 📃 제출 규칙 - 제출한 코드는 Private Score 복원이 가능해야 함 - 코드에 ‘/data’ 데이터 입/출력 경로 포함 - 사용 가능 언어: Python - 코드와 주석 인코딩: UTF-8 - 모든 코드는 오류 없이 실행되어야 함(라이브러리 로딩 코드 포함) - 개발 환경(OS) 및 라이브러리 버전 기재 📃 제출 파일 - Private Score 복원이 가능한 코드 파일 - Private Score 복원이 가능한 모델 weight 파일 - 결과보고서 자료 - [중요] 팀원 전체의 참가 자격을 증빙할 수 있는 자료 (재학증명서, 재직증명서 등) 📃 결과보고서 자료 - 심사 항목에 대한 내용을 담은 자유 양식의 결과보고서

참가 정보
참가 대상

- 금융회사 및 관련 분야 종사자, 또는 전국 대학(원)생 - 대학(원)생의 경우, 휴학생과 졸업예정자도 참가 가능 - 단, 졸업생은 참가 제한

참가 비용

무료

참가 방법

8월 30일 (금)까지 참가링크를 통해 데이터셋 제출하기

참가 장소

온라인

상금 정보
🥇대상(금융위원회 위원장 상, 1팀) - 800만 원 🥈최우수상(금융보안원 원장 상, 1팀) - 500만 원 🥉우수상(대표이사 상, 2팀) - 200만 원
일정
참가 신청 기간

07월 22일(월) 10:00 ~ 08월 23일(금) 10:00

대회 기간

08월 05일(월) 10:00 ~ 8월 30일(금) 10:00

팀 병합 마감

08월 25일(일)

대회 종료

08월 30일(월) 10:00

코드 및 결과보고서 제출 마감

09월 06일(금)

발표 평가 대상자 안내

09월 27일(금) 10:00

발표 자료 제출 마감

10월 04일(금)

오프라인 발표 평가

10월 11일(금) 예정

최종 수상자 발표

10월 31일(목)

오프라인 시상식

2024년 11월 중 FISCON 2024 행사에서 시상식 개최

심사

✅ 평가 산식 - Macro F1 Score : 분류모델 정확성(35%), 생성모델 유용성(35%) 평가 1) 분류모델 정확성, 생성모델 유용성 평가를 위해 test.csv에 대한 예측 결과를 제출 파일(zip) 내에 clf_submission.csv 과 동일한 파일명의 예측 결과 데이터 프레임이 반드시 존재해야합니다. - TCAP : 생성모델 익명성(30%) 평가 1) 생성모델 익명성 평가를 위해 제출 파일(zip) 내에 syn_submission.csv 과 동일한 파일명의 생성 데이터 프레임이 반드시 존재해야합니다. 2) 생성모델 익명성 평가를 위해 전체 클래스(13개) 별 1000개, 총 13,000개의 데이터를 생성하여 제출해야합니다. 3) 생성모델 익명성 평가를 위해 사전에 주최측에서 지정한 Key, Target 컬럼에 대해 평가하며, 이 컬럼은 공개하지 않습니다. 4) 데이터 명세를 참조하여 모든 컬럼이 데이터 생성 조건에 맞게 생성되어야합니다. ※ 익명성 평가 : 원본데이터의 주요 속성 값을 알고 있을 때, 합성데이터를 통해 원본데이터 내 개인의 민감한 정보(목표 속성)를 유추해낼 위험성을 평가 ※ 원본데이터는 배포 데이터 중 학습 데이터인 train.csv를 사용 ✏️ Score = 0.7 x Macro F1 Score + 0.3 x (1 - TCAP) ✅ Public score - 분류(Macro F1 Score) : 전체 테스트 데이터 중 사전 샘플링된 50% - 생성(TCAP) : 생성한 데이터 중 전체 100% ✅ Private score - 분류(Macro F1 Score) : 전체 테스트 데이터 중 전체 100% - 생성(TCAP) : 생성한 데이터 중 전체 100%

유의사항

※ 생성 AI 모델 관련 인정 기준 - VAE(M), TableGAN, CTGAN, CTAB-GAN 등 허용 - Synthpop, 랜덤 생성 등의 방식은 불인정 ※ 생성 AI 모델 미사용은 2차 평가에서 감점 또는 실격 요인으로 적용되며, 생성 AI 모델 적용 기준은 별도 문의 ※ 분류 AI 모델의 성능 개선에 생성 AI 모델을 활용하지 않는 경우에도 2차 평가에서 감점 요인으로 적용될 수 있음

내용에 오류가 있을 수 있으며, 주최사 사정으로 인하여 관련 정보가 변경될 수 있으니 주최사 홈페이지나 공지사항을 통해 반드시 공모요강 및 변경 사항을 확인해주세요. 등록한 내용에 대하여 사용자가 취한 조치에 대해서 그로스앤챌린지는 어떠한 책임도 지지 않습니다.

저장
참가