Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально.
Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.
На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"
Вопрос к модели был абсолютно простым:
А ответ на удивление быстрым и лаконичным, всего за 30 секунд, покажу его скриншоты.

Для интересующихся, я запускаю модели ollama через open webui. Но иногда натыкаюсь на критику такой связки. Я не против критики, но только когда она конструктивна. Так что готов отвечтать на любые вопросы того что я уже изучил в запуске LLM локально, а так же на обоснованную критику моих знаний и действий. ));
Источник


