theangriestbird,

My experience is with gpt4all (which also runs locally), but I believe the GPU doesn’t matter because you aren’t training the model yourself. You download a trained model and run it locally. The only cap they warn you about is RAM - you’ll want to run at least 16gb of RAM, and even then you might want to stick to a lighter model.

  • Wszystkie
  • Subskrybowane
  • Moderowane
  • Ulubione
  • esport
  • muzyka
  • Pozytywnie
  • giereczkowo
  • Blogi
  • sport
  • Spoleczenstwo
  • rowery
  • krakow
  • tech
  • niusy
  • lieratura
  • Cyfryzacja
  • kino
  • piracy@lemmy.dbzer0.com
  • LGBTQIAP
  • opowiadania
  • slask
  • Psychologia
  • motoryzacja
  • turystyka
  • MiddleEast
  • fediversum
  • zebynieucieklo
  • test1
  • Archiwum
  • FromSilesiaToPolesia
  • NomadOffgrid
  • m0biTech
  • Wszystkie magazyny