Давай OLlama, давай!

Быстрый старт с LLM моделью tinyllama. Освоим инструмент ollama за 15 минут! Всё, что вы хотели знать о локальных LLM, но боялись спросить. В этой статье развернем Windows Server 2016, установим ollama и протестируем LLM модели tinyllama, deepseek-r1:1.5b, qwen3-vl:2b.








