728x90 SMALL 최신IT 정보90 신경과학자가 말하는 AI가 블랙박스가 되는 이유 이해하기 어려운 인공지능인공지능(AI)이 하고 있는 것을 이해하거나 예측하기 어려운 것을 설명할 때 자주 사용되는 용어는 “설명가능(explainability)” 또는 “해석가능(interpretability)” 같은 용어를 사용합니다. AI를 개발하고 프로그래밍한 전문가들에게도 동작원리를 이해하는 것이 어려운 이유는 무엇일까요? 신경과학자이면서 컴퓨터 과학자인 브레이크 리처즈(Blake Richards)는 "AI는 특정 목적을 위해 설계된 것이 아니라 최적화 기술을 사용하여 설계되었기 때문"이라고 답하고 있습니다. 그는 'AI의 아버지'로 불리며 딥 러닝 시스템을 발명한 제프리 힌턴의 조수를 맡은 적이 있는 AI 전문가입니다. ChatGPT나 Bard 등 LLM(대규모 언어 모델)의 기반이 되는 기술이.. 2023. 6. 19. 이전 1 ··· 32 33 34 35 36 37 38 ··· 90 다음 반응형 LIST