elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: ¿Eres nuevo? ¿Tienes dudas acerca del funcionamiento de la comunidad? Lee las Reglas Generales


+  Foro de elhacker.net
|-+  Foros Generales
| |-+  Dudas Generales (Moderador: engel lex)
| | |-+  Qué LLM han conseguido hacer funcionar en local?
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] Ir Abajo Respuesta Imprimir
Autor Tema: Qué LLM han conseguido hacer funcionar en local?  (Leído 1,044 veces)
Parado_larga_duracion_ESP

Desconectado Desconectado

Mensajes: 49


Ver Perfil
Qué LLM han conseguido hacer funcionar en local?
« en: 29 Febrero 2024, 11:53 am »

Yo solo he conseguido GPT4all con Mistral. Los otros con ollama van muy lentos, y eso que reseteé para que el CUDA ese se integrara.


En línea

Páginas: [1] Ir Arriba Respuesta Imprimir 

Ir a:  

WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines