
AI의 ‘환각(Hallucinations)’ 현상이란, OpenAI의 ChatGPT나 Google의 Bard와 같은 생성형 AI 모델이 전적으로 허구의 정보를 만들어내는 것을 말합니다. 이러한 현상은 AI 시스템이 오류나 거짓 정보를 발생시킬 수 있는 위험성을 드러내고 있습니다. 요약 인공지능의 ‘환각’ 현상: 생성형 AI 모델이 허구의 정보를 만들어내는 현상으로, 오류나 거짓 정보를 유발할 수 있는 위험성을 가지고 있습니다. OpenAI의 새로운 연구: AI 모델을 훈련할 때, 각 단계별로 올바른 추론을 하도록 보상하는 '과정 감독(process supervision)'이라는 방법을 제안하고, 이 방법이 설명 가능한 AI를 만들 수 있을 것이라고 주장했습니다. 외부전문가들의 반응: 일부 독립 전문가들은..
IT
2023. 7. 24. 17:36
글 보관함
반응형
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday