Título: Qué LLM han conseguido hacer funcionar en local? Publicado por: Parado_larga_duracion_ESP en 29 Febrero 2024, 11:53 am Yo solo he conseguido GPT4all con Mistral. Los otros con ollama van muy lentos, y eso que reseteé para que el CUDA ese se integrara.
|