A local LLM not using llama.cpp as the backend? Daring today aren't we.
Wonder what its performance is in comparison
A local LLM not using llama.cpp as the backend? Daring today aren't we.
Wonder what its performance is in comparison
Yeees this is the internet we want! And the flow is surprisingly good
Is this yours or do you have a source? I want this as a t-shirt !
Tillykke til dig og til feddit! Glad for at være med på den her hyggelige del af internettet
What a stupid website... I love it!
Det god stil ! Det skal lige godkendes af partneren men det kunne jeg måske godt være interesseret i
Looks pretty neat. Opensource as well. Will give it a try, thanks!
Wild stuff! Thanks for sharing
Jeg har en veninde som havde dem og de er ikke bange for mennesker ligesom sølvfisk. Hvilket vil sige de godt kan finde på at krave på dig. Min veninde vågnede en dag ved at de kravlede på hendes ansigt. Hun flyttede ud af den lejlighed ugen efter
Har fået sat moonlight (gamestream) op så jeg kan spille mine pc spil på projector i stuen. Når det virker er det enormat fedt. Så den regnfyldte påske går nok til last of us 2
God fredag til fedditfolket :)
Jeg har kun set to ting om det spil:
Så kan godt forestille mig det er en syret oplevelse 😅
Cool story, thanks for writing it up.