Foro de elhacker.net

Foros Generales => Dudas Generales => Mensaje iniciado por: Parado_larga_duracion_ESP en 29 Febrero 2024, 11:53 am



Título: Qué LLM han conseguido hacer funcionar en local?
Publicado por: Parado_larga_duracion_ESP en 29 Febrero 2024, 11:53 am
Yo solo he conseguido GPT4all con Mistral. Los otros con ollama van muy lentos, y eso que reseteé para que el CUDA ese se integrara.