Zdravim, mam dotaz. Mam MacOS M1 Pro Macbook a rozchodil jsem si pres llama.cpp jeden z tech mensich llama modelu pro chatovani. Povedlo se mi to nacpat i do linuxoveho kontejneru v dockeru. Dotaz zni: Je mozne nejak zprovoznit GPU inferenci i pro ten docker kontejner? Na lokale v MacOS to slo (podporuje to metal primo, takze kdyz to neni v kontejneru, tak to jde pouzit). Google a Stackoverflow mlci. Nasel jsem akorat nejake yt video, kde ale mluvili o pytorch. Plus spousta tutorialu jak to nastavit pro nVidia GPU, ale ne pro M1 GPU, tak se ptam, jestli jste to nekdo uz nezkouseli.