Так, народ, давайте поговорим о насущном. Все эти модные облачные LLM, конечно, круты, но есть нюанс: зависимость от провайдера и ценники. Плюс, приватность данных. А что, если хочется копаться в моделях глубже, без ограничений? Сегодня расскажу, как поднять свою собственную, локальную нейронку для экспериментов. Это не так страшно, как кажется, особенно если у вас есть более-менее приличная видеокарта. Мы будем использовать Ollama — это такая штука, которая сильно упрощает жизнь.
Вот пошаговый план:
Это реально рабочий способ начать экспериментировать с LLM, не тратясь на дорогие подписки. Ну и для понимания, как вообще эти технологии работают, полезно.