← 2026-04-28 목록으로


이 영상의 주제

이 영상은 고성능 미니 AI 워크스테이션인 HP ZGX nano를 소개하며, 서버급 AI 환경을 개인 책상 위에서 구현하는 방법을 다룹니다. 클라우드 비용 부담과 보안 우려 없이 로컬 환경에서 대규모 언어 모델(LLM)을 구동하고 제어하는 과정을 상세히 보여줍니다. 중급 이상의 개발자나 AI 연구자를 대상으로 하며, 하드웨어 성능 분석부터 실제 7,540억 파라미터 모델 구동까지의 실전 데모를 통해 로컬 AI 인프라 구축의 가능성을 제시합니다.


다루는 기술 스택 / 키워드


타임스탬프별 핵심 포인트

| 시간 | 내용 | |—|—| | 00:00 | 책상 위에서 구동되는 7,540억 파라미터 데이터 센터급 모델 시연 | | 00:26 | HP ZGX nano 소개 및 로컬 AI 환경의 필요성(비용 및 보안) 강조 | | 00:48 | 하드웨어 스펙: Nvidia GB10 칩셋 및 128GB 통합 메모리 설명 | | 01:17 | FP4 기준 1,000 TOPS 연산 성능과 고효율 데이터 처리 원리 | | 02:33 | 초소형 폼팩터의 발열 관리를 위한 3D 메시 그릴 설계 기술 | | 03:31 | 개발 편의성을 위한 ‘ZGX Toolkit’ 및 오픈소스 프레임워크 지원 | | 04:36 | 보안 강화 모델 ‘ZGX nano secure’ (무선 통신 물리적 제거) 소개 | | 05:08 | VS Code 연동 및 Gemma 4 (26B, 31B) 모델 로컬 구동 성능 측정 | | 07:38 | NemoClaw와 Nemotron 3 Super를 활용한 로컬 AI 에이전트 구축 | | 10:55 | 금융/의료 등 민감 데이터를 위한 온디바이스 AI 활용 시나리오 | | 14:07 | 4대 클러스터 연결을 통한 7,540억 파라미터 GLM-5.1 모델 구동 실습 |


기본 정보

| 항목 | 내용 | |—|—| | 채널 | 조코딩 JoCoding | | 카테고리 | 프로그래밍 | | 게시일 | 2026-04-28 | | 영상 길이 | 20:48 | | 처리 엔진 | gemini-3-flash-preview | | 원본 영상 | YouTube에서 보기 |