MA747: valgrind apod pozna, kdyz program nikdy neuvolni alokovanou pamet, protoze k ni ztrati pointer atd. Kdyz ji pri korektnim ukonceni vsechnu uvolni, tak to znamena, ze pointery zjevne neztratil a leak nebyl. Ale nemuze ophalit treba pripady, kdy si program cachuje nejaka data a ma tu cache prubezne uvolnovat / drzet na nejakem mnozstvi cachovanych dat, a tohle z nejakeho duvodu nefunguje.
Nesouvisi to s tou zatezi, kdyz je to server? Kdyz se zatez vypne, nespadne taky vyuziti pameti serverem?
Dalsi co me napada, je, ze se to po letech kompiluje/spousti na novejsi glibc, kde muze byt zmena v implementaci malloc/new aby to lip skalovalo (per-thread areny atd) coz ale znamena vetsi vyuziti pameti v porovnani se starou glibc.