2
Online53
Users512
Topics6.2k
PostsEsperienze con LLM
-
teflon , piccolo aggiornamento : e’ disponibile Codex (https://chatgpt.com/codex).
Fatti alcuni test. Tra il male ed il molto male. -
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
-
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente). -
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Aethiss concordo
-
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Aethiss said in Esperienze con LLM:
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Sto guardando questo qui: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente? -
Aethiss said in Esperienze con LLM:
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Sto guardando questo qui: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente?brancalione said in Esperienze con LLM:
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente?
Non esiste una risposta si o no (in base alle mie conoscenze). La risposta e’ dipende che cosa devi fare. O dei tempi che vuoi impiegare.
Ci sono sicuramente persone piu’ brave di me che possono magari sparare qualche numero. Io mi fermo prima di quello che non so (o comunque non lo so a fondo), sorry. -
Aethiss said in Esperienze con LLM:
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Sto guardando questo qui: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente?brancalione said in Esperienze con LLM:
Aethiss said in Esperienze con LLM:
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Sto guardando questo qui: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente?Mah, secondo me non è strettamente necessario. Riuscivo a generare ritrattini in tempi umani con una 1060.
Ora, con una amd da 16gb va molto meglio, posto che si usino i driver giusti.Il mio consiglio è di recuperarti un frontend facile da installare tipo comfyUI e provare diversi modelli e vedere cosa ne esce fuori (flux dovrebbe essere buono, anche se lentuccio). O ancora meglio, stability matrix, per provare anche diversi frontend.
Se hai un’amd, occhio a usare vulkan (mi sembra sia arrivato al livello di rocm, se non meglio), non so nulla sulle arc invece. -
brancalione said in Esperienze con LLM:
Aethiss said in Esperienze con LLM:
brancalione said in Esperienze con LLM:
Mi consigliate un modello da fare girare localmente che sia buono per generazione o modifica di immagini?
Localmente, imho stable diffusion.
Una 4080 a salire aiuta (dipende da quello che vuoi fare ovviamente).Sto guardando questo qui: https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
Ho solo 16gb di Ram ddr3 e nessuna scheda video NVDIA. Con questa configurazione ho installato qualche modello testuale (mi pare il Mistral 7B). Per generare immagine serve davvero una scheda video potente?Mah, secondo me non è strettamente necessario. Riuscivo a generare ritrattini in tempi umani con una 1060.
Ora, con una amd da 16gb va molto meglio, posto che si usino i driver giusti.Il mio consiglio è di recuperarti un frontend facile da installare tipo comfyUI e provare diversi modelli e vedere cosa ne esce fuori (flux dovrebbe essere buono, anche se lentuccio). O ancora meglio, stability matrix, per provare anche diversi frontend.
Se hai un’amd, occhio a usare vulkan (mi sembra sia arrivato al livello di rocm, se non meglio), non so nulla sulle arc invece.philotette per ora sto usando ollama.
-
A proposito di Cyborg…
-
A proposito di Cyborg…
Saulo Bandone said in Esperienze con LLM:
A proposito di Cyborg…
ma quindi con che pronome bisogna chiamarlo?
-
Saulo Bandone said in Esperienze con LLM:
A proposito di Cyborg…
ma quindi con che pronome bisogna chiamarlo?
pirla/pirla
-
Amiga Unicorn said in Esperienze con LLM:
Abbiamo gia’ creato delle IA, circa 15000 anni fa. Si chiamano “cani”.
Sono artificiali, perche’ non esistevano prima e le abbiamo fatte noi come umanita’, e sono intelligenti, perche’ i cani sono intelligenti.
Ma i cani non sostituiscono il pastore, ne’ il cacciatore, ne’ il padrone di casa. E’ la coppia Uomo + Cane che e’ molto migliore di “cane” e di “uomo”.
Quando fai questi collegamenti, se mi posso permettere, che sono al tempo stesso geniali e scontati, ma a posteriori (solo dopo che li hai enunciati), sono fiero di avere iniziato a leggere il tuo blog.
Mi scuso se sembra piaggeria, ma mi scatta l’epifania…
Come quelli che hanno le protesi e sono praticamente già dei Cyborg… Grazie, aspetto l’IBAN per il bonifico…Saulo Bandone said in Esperienze con LLM:
Quando fai questi collegamenti, se mi posso permettere, che sono al tempo stesso geniali e scontati, ma a posteriori (solo dopo che li hai enunciati)
Già detto altrove: non sono neppure sempre necessariamente d’accordo con le conclusioni che ne derivano, ma Amiga Unicorn è un fenomeno a vedere cose semplici da una prospettiva non scontata – o se preferiamo, a riscrivere equazioni anche semplici in forme piuttosto utili e illuminanti.
-
Saulo Bandone said in Esperienze con LLM:
A proposito di Cyborg…
ma quindi con che pronome bisogna chiamarlo?
teflon it, è un oggetto animato