대규모 언어 모델(LLM)은 생성형 AI 시대를 연 핵심 기술로 평가받는다. 그러나 최근에는 최신 정보 반영의 어려움, 환각, 양적 자원에만 기반한 보수적인 제안 등 실무 적용에서 드러나는 한계에 많은 관심이 쏠리고 있다. 기능만 덧붙이는 접근보다는 목적에 따라 다양한 조합과 선택지를 고민하는 실용적 접근이 요구된다. LLM 중심의 사고에서 벗어나 소규모 언어 모델(SLM)과 검색 증강 생성(RAG) 등의 더욱 현실적이고 효율적인 생성형 AI 활용 방안을 모색할 시점이다.
주요 내용
- "아는 것만 아는" LLM, 오히려 혁신을 저해한다
- LLM을 학습한 추출 모델, 작아도 위험은 동일
- LLM 한계 극복을 위한 RAG의 역할과 최신 동향
- 잊어버려야 할 것은 잊는 LLM이 필요한 시점
- AI 코딩, LLM 혼합 전략이 답이다