본문 바로가기

보안 뉴스 기사

'생성형 AI 레드팀 챌린지' 개최... AI 안전 위해 국내외 대표기업과 국민이 한자리에

- 기사요약

AI 레드팀은 통제된 환경에서 적대적 방법을 사용해 AI 시스템의 유해하거나 차별적인 결과, 시스템 오용 등 결함,취약성을 식별하기 위한 구조화된 테스트 활동을 의미한다. 1일차 : 국내 여러 기업의 AI모델을 대상으로 1000명의 참가자가 잠재적 위험,취약점을 식별하는 공개 챌린지 방식으로 진행된다. 2일차 : 국내외 대표 AI기업,기관,전문가가 참여하는 글로벌 AI 안전 컨퍼런스를 개최하고 생성형 AI안전 신뢰성 확보방안을 논의 한다.

출처 : 보안뉴스

 

- 기대효과

레드팀 챌린지행사에 참여한 기업은 사용자 다양성을 반영한 평가 데이터셋을 확보하고 자사 모델의 잠재적인 위험, 취약점 파악을 통해 안전성, 신뢰성을 제고할 수 있는 계기가 될 것으로 기대된다. 과기정통부는 AI분야의 포괄적인 위험을 도출하고 업계에서 활용할 수 있는 생성형 AI레드팀 수행가이드라인을 마련하는 등 표준화된 AI위험 발굴,대응체계를 구축해 나갈 계획이다.

 

- 개인의견

과학기술정보통신부에서는 국민들에게 챌린지행사를 개최해서 많은 참여를 유도함과 동시에 한국의 AI 발전에도 기여하는 모습이 인상적이었다. 앞으로 많은 AI기술들이 발전함에 따라 위험이 될 수 있는 부분에 대해 대응을 확실히 해나가는 것도 발전과 동시에 이루어 져야 할것이다.

 

출처 : https://www.boannews.com/media/view.asp?idx=127999&page=1&kind=2