폭탄 만드는 법까지…챗GPT, 질문 방식 바꾸자 위험한 답변까지 술술
2024-07-05 15:47
add remove print link
챗GPT, 범죄 악용 가능성 제기
오픈AI가 개발한 프로토타입 대화형 인공지능 챗봇 '챗GPT'가 범죄에 악용될 가능성이 높다는 경고가 제기됐다.
KBS가 5일 보도한 내용이다.
인공지능 기술이 빠르게 발전하면서 그 부작용에 대한 우려도 커지고 있다. 특히 챗GPT가 범죄에 악용될 수 있는 허점이 드러나며 경각심을 일으키고 있다고 KBS가 5일 보도했다.
KBS 취재에 따르면 챗GPT는 범죄와 관련된 질문에는 답하지 않는다고 알려져 있지만, 질문 내용을 조금만 바꿔 물어보면 위험한 정보가 쉽게 제공되는 것으로 확인됐다.
챗GPT 3.5 버전은 2022년 말에 출시됐다. 이 버전은 윤리에 어긋나는 질문에는 답하지 않도록 학습되어 있다고 알려져 있다. 챗GPT는 홈페이지에 윤리 헌장을 게재하며 "안전을 구축하고 오남용에 따른 피해를 줄이겠다"고 약속하고 있다.
그러나 실험 결과는 달랐다.
폭탄 제조법을 직접적으로 물어봤을 때는 답변을 거부했지만, 질문 방식을 조금 바꾸자 관련 정보를 제공했다.
장우진 보안업체 책임연구원은 KBS에 "AI에게 혼란을 주면, 거절을 피하고 정보를 얻을 수 있다"고 설명했다. 이는 가장 최근에 출시된 챗GPT 4.0, GPT-4o에서도 마찬가지였다. 질문 방식을 바꾸면 마약 제조법이나 악성코드 제작 방법 등에 대한 답변도 얻을 수 있었다.
더욱 문제가 되는 것은 해커들이 다크웹에서 이러한 우회 방법을 거래하고 있다는 점이다.
박근태 보안업체 최고 기술 책임자는 KBS에 "답변하지 않아야 할 데이터에 대해 사전 학습 과정에서 제외하는 작업과 위험한 부분은 답변하지 않도록 추가 학습을 계속해서 진행하고 있다"고 밝혔다.
전문가들은 인공지능이 점점 더 똑똑해지고 일상생활에 깊이 스며들고 있는 만큼, 범죄 악용을 방지하기 위한 적극적인 조치가 필요하다고 강조한다. 또한 AI의 학습 과정에서 윤리적 기준을 강화하고, 잠재적인 위험성을 줄이기 위한 지속적인 업데이트와 모니터링이 필수적이라고 전문가들은 입을 모은다.