JANFROG: me na psani testu (vlastne jakychkoliv, at uz unit, integracnich ci end-to-end) prijde jako velka vyhoda to, ze to lidi donuti psat ten kod testovatelnej. To ze vysledna coverage neni 100 a treba ani 70 % je imho vedlejsi. Dava mi to moznost si snadno a rychle nejaky test dopsat, kdyz se jdu vrtat do nejaky featury, kterou fakt nechci rozesrat. Problem te testovatelnosti obcas muze narazet na zvysenou komplexitu do zacatku - treba mockovani casu umi bejt neprijemny. Ale rozhodne je to jednodussi, kdyz je to s tim delany od zacatku, nez se to snazit doroubovat do neceho uz hotovyho.
A stejny pozitiva vidim a stejnej pristup razim u automatizovanyho deploymentu - donuti to vsechny vyrabet ty veci deployovatelne a provozovatelne - myslet na to, co to potrebuje k rozbehu z cisty louky, ze je potreba nejak deterministicky popsat navaznosti co ma startovat po cem. Jak se pozna, ze neco bezi (nebo naopak nebezi) - tj. ty veci mnohem lip ukazujou nejaky metriky. Stejne tak se mnohem driv vyresi jak neco muze bezet ve vic instancich, jak se u toho dela deployment nove verze atd.
Casto to vede k tomu, ze se vyrobej nejaky simulatory trafficu, ktery se pak daj pustit proti devel/integracnimu prostredi apod. A v neposledni rade to vede k problematice pripravy testovacich dat - idealne nejakou anonymizaci dat realnejch, ale to je uz kapitola sama o sobe.