ollama

Published by onesixx on

$  docker exec -it ollama sh
# ollama list
NAME                        ID              SIZE      MODIFIED
llama4:latest               b62dea0de67c    67 GB     3 weeks ago
mistral-small3.1:latest     b9aaf0c2586a    15 GB     6 weeks ago
llama3.2-vision:90b         d2a5e64c56a9    54 GB     7 weeks ago
llava:34b                   3d2d24f46674    20 GB     7 weeks ago
gemma3:27b                  a418f5838eaf    17 GB     7 weeks ago
bge-m3:latest               790764642607    1.2 GB    8 weeks ago
exaone-deep:2.4b            37d6b495c16c    1.6 GB    2 months ago
deepseek-r1:7b              0a8c26691023    4.7 GB    2 months ago
exaone3.5:latest            c7c4e3d1ca22    4.8 GB    2 months ago
qwq:32b                     cc1091b0e276    19 GB     2 months ago
all-minilm:l6-v2            1b226e2802db    45 MB     3 months ago
nomic-embed-text:latest     0a109f422b47    274 MB    3 months ago
deepseek-r1:671b            739e1b229ad7    404 GB    3 months ago
smollm2:135m                9077fe9d2ae1    270 MB    4 months ago
deepseek-r1:70b             0c1615a8ca32    42 GB     4 months ago
deepseek-r1:32b             38056bbcbb2d    19 GB     4 months ago
llama3.3:latest             a6eb4748fd29    42 GB     5 months ago
qwen2.5-coder:32b           4bd6cbf2d094    19 GB     5 months ago
deepseek-coder-v2:latest    63fb193b3a9b    8.9 GB    5 months ago
starcoder2:15b              21ae152d49e0    9.1 GB    6 months ago
llama3.2:latest             a80c4f17acd5    2.0 GB    8 months ago
mistral-nemo:latest         994f3b8b7801    7.1 GB    8 months ago
qwen2.5-coder:7b            87098ba7390d    4.7 GB    8 months ago
gemma2:27b                  53261bc9c192    15 GB     8 months ago

AI 모델별 기능 지원 현황표

전체 모델 현황 (19개 모델)

범례

기능 지원 수준

  • 지원: 해당 기능을 완전히 지원
  • ⚠️ 제한적: 기본적인 수준의 지원
  • 미지원: 해당 기능을 지원하지 않음

리소스 등급

  • 🟣 극한 (400GB+ RAM): 특수 하드웨어 필요
  • 🔴 고급 (40GB+ RAM): 고성능 GPU/대용량 메모리 필요
  • 🟡 중간 (15-40GB RAM): 중급 하드웨어
  • 🟢 경량 (2-10GB RAM): 일반 하드웨어에서 실행 가능

카테고리별 분류

🎯 Vision 지원 모델 (2개)

🧠 추론 특화 모델 (4개)

💻 코딩 특화 모델 (5개)

🌐 범용 모델 (8개)

💡 권장 사용 시나리오

🎯 작업별 최적 모델

⚠️ 리소스 고려사항

  • 메모리 부족 시: 🟢 경량 모델 우선 사용
  • 고성능 필요 시: 🔴 고급 모델 선택적 사용
  • 안정성 우선 시: 검증된 Llama/Gemma 시리즈 활용

Categories: Uncategorized

onesixx

Blog Owner

Subscribe
Notify of
guest

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x