SATAI: "pravděpodobně".
v kontextu groku je zajímavé, že pise, že další model bude natrénovan v květnu. dál píšou o groku 2 že ho natrénovat potřebovalo 20k karet, jako by se to už stalo, přitom ještě není dostupný ani ten grok 1.5 ?
a představa, že další verze budou potřebovat ještě více GPU a elektřiny je taková zvláštní. už teď jsou LLM drahé na provoz, že není jasné, zda se dlouhodobě vyplatí.
sázka na extenzivní vývoj (viz grok 1, který dosahuje výsledků o něco lepších než ChatGPT 3 za cenu mnohem víc parametrů). přitom vývoj probíhá spíš ve zlepšování za snižování počtu parametrů, moat ChatGPT je ve fine tuningu a přidávání deterministickych doplňků, např použití code interpreteru (chatgpt si na úlohy, ve kterých není dobrý napíše prográmek a zpracuje výsledek)..