강화미세조정1 AI, 이제 모르면 모른다고 말한다! 신중하고 정직한 AI로 진화하는 비밀 AI 환각 문제, 어떻게 해결할까? 최근 인공지능의 '환각(hallucination)' 문제가 뜨거운 감자로 떠오르고 있습니다. AI가 잘못된 정보를 마치 진실인 것처럼 자신 있게 답변하는 현상인데요. 이런 문제가 의료, 법률, 금융 등 고신뢰성이 요구되는 분야에서는 특히 치명적일 수 있습니다. 서던캘리포니아대학교(USC)의 연구진은 이 문제를 해결하기 위한 새로운 학습법을 발표했습니다. 바로 인공지능이 모를 때는 "모른다"라고 정직하게 말하도록 가르치는 방법입니다. RFT 방식의 한계 기존에 인공지능 모델을 훈련할 때 많이 사용하는 방식이 강화 미세조정(RFT: Reinforcement Finetuning)입니다. 이 방식은 모델이 바람직한 답변을 할 때 보상을 주어 그 행동을 강화시키고,.. 2025. 6. 17. 이전 1 다음