Det är väl ändå inte sant.
https://www.youtube.com/watch?v=dmOCYFVLi2M&t=20s
ServeTheHome gjorde reportage om en AI server med 8st Nvidia GPUs där vardera har 141GB HBM3e minne, för totalt 1.128TB VRAM per server.
Det går att köra LLM på en sådan beräkningsserver.
Vet inte vad de kostar, men en komplett server kostar nog mer än en ny bil.
Så de är inte billiga. Men finns ändå företag som köper.