지난 번에 Ollama에서 제공하는 기본 프로그램을 다운로드받아 gpt-oss-20b 모델을 macOS에서 실행시켜봤다. 향후 확장성을 고려하여 이번에는 Docker로 실행해보고 무슨 차이가 있는지 알아보자. https://dev-tobe.tistory.com/29 로컬(macOS) LLM 설치하기 w/OllamaLLM 중에 OpenSource 형태로 모델들이 꽤나 제공되기도 하고, 매번 CSP에서 제공하는 서비스만 사용하다가 호기심이 생겨 로컬환경에 LLM을 설치하고 사용해보기로 한다. MacBook의 Silicon Chip에 Memory가 1dev-tobe.tistory.com 설치하기Ollama Container 설치공개된 Docker Image는 아래와 같다. 로컬환경으로 가져와서 실행해보자.ht..