локальное чудо

Aug 02, 2024 17:33

Столкнувшись недавно с лимитом запросов к AI в Warp'e, заинтересовался наконец что можно локально у себя запустить, на машине без мощного GPU. И оказалось вовремя, китайцы тут удружили недавно. Теперь есть модели, которые довольно шустро работают на CPU, безо всяких видеокарт. Рецепт такой ( Read more... )

находки

Leave a comment

Comments 2

freedom_of_sea August 2 2024, 18:18:00 UTC
а нет ли у китайцев модели которая лезет в поисковик, скачивает первую страниwe ссылок, изучает ее и тогда уже отвечает?

Reply

thedeemon August 2 2024, 18:20:47 UTC
Не видел, ollama только локально работает.

Зато есть сайт https://www.perplexity.ai/ который именно это и делает, насколько я понимаю.

Reply


Leave a comment

Up