이 영상의 주제
이 영상은 최근 ChatGPT 모델(영상 내 GPT-5.1~5.5 버전 언급)에서 발생한 ‘고블린(Goblin)’이라는 단어를 비정상적으로 자주 사용하는 현상과 그 기술적 배경을 다룹니다. 거대 언어 모델(LLM)이 학습 과정에서 특정 말투나 습관(Lexical tic)을 갖게 되는 이유를 SFT(Supervised Fine-Tuning)와 강화학습(Reinforcement Learning) 관점에서 분석합니다. 인공지능 모델의 학습 원리에 관심 있는 입문자 및 중급 개발자에게 적합하며, 데이터 라벨링과 보상 체계가 모델의 결과물에 어떤 예기치 못한 영향을 미치는지 이해할 수 있습니다.
다루는 기술 스택 / 키워드
- ChatGPT (GPT-5.1, 5.4, 5.5)
- OpenAI Codex
- 시스템 프롬프트 (System Prompt)
- SFT (Supervised Fine-Tuning)
- 강화학습 (Reinforcement Learning)
- RLHF (Reinforcement Learning from Human Feedback)
- 모델 성격 커스터마이징 (Personality Customization)
- Lexical tic (어휘적 틱)
타임스탬프별 핵심 포인트
| 시간 | 내용 | |—|—| | 00:00 | GPT의 이상한 습관들(이모지 집착, 특정 말투)과 ‘고블린’ 단어 남발 현상 소개 | | 00:41 | GPT 버전별 고블린/그렘린 단어 사용 빈도 추적 및 분석 | | 01:04 | 결정적 원인으로 파악된 ‘Nerdy’ 성격 설정과 고블린 단어의 상관관계 | | 01:36 | 신버전(5.5) 출시 후에도 지속되는 ‘고블린 틱(Lexical tic)’ 현상 | | 01:54 | 인공지능 학습 단계 설명: 다음 단어 예측, SFT, 그리고 강화학습의 역할 | | 02:12 | 강화학습 과정에서 알바생(라벨러)들이 비유법(고블린 등)에 높은 점수를 준 사례 분석 | | 02:52 | 특정 성격에서 시작된 습관이 전체 모델로 전염되는 과정 설명 | | 03:40 | AI 유전병(데이터 오염) 현상과 개발자들의 프롬프트를 통한 임시 해결책 | | 04:05 | 학습 데이터와 보상 체계가 현실의 콘텐츠 제작에 미치는 영향 비유 및 결론 |
기본 정보
| 항목 | 내용 | |—|—| | 채널 | 코딩애플 | | 카테고리 | 프로그래밍 | | 게시일 | 2026-05-06 | | 영상 길이 | 4:27 | | 처리 엔진 | gemini-3-flash-preview | | 원본 영상 | YouTube에서 보기 |