• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    ALMADDocker a kontejnery
    RAGNAROK
    RAGNAROK --- ---
    ADMIX:
    tak jsem objevil toto a maka to :-D konecne:
    Alejandro Celaya | Blog — Software development, agile methodologies and open source projects
    https://blog.alejandrocelaya.com/...c-ip-addresses-to-docker-containers-created-with-docker-compose/
    ADMIX
    ADMIX --- ---
    RAGNAROK: na tohle je obecne nejlepsi mit nejakej MQ broker mimo, ale v tvym pripade bych rek ze potrebujes bridge a ne localhost, pac ty kontejnery localhost nesdili
    RAGNAROK
    RAGNAROK --- ---
    Zdravim nemuzu prijit na to jak nastavit sit pro 2 kontejnery ktere mezi sebou komunikuji pres UDP:
    Container sender posila UDP packety ktere by mely dojit k Receiver conteineru. Receiver by mel prijmout packet a odpovedet na adresu ze ktere prijmul UDP packet. Kdyz pustim obe apky bez dokru tak to funguje. Kdyz napisu apku, tak ze receiver a sender jsou v jedne apce tak to funguje. Kdyz je ale poustim zvlaste v dockeru s nasledujicim docker-compose tak sender posila UDP na adresu 127.0.0.1:3000 ale receiver nic neprijme. Nevedel by nekdo prosim?

    
    version: '3'
    services:
      receiver:
        image: receiver:latest
        environment:
          Laddr: "127.0.0.1:3000"
        ports:
          - "3000:3000/udp"
        links:
          - sender
    
      sender:
        image: sender:latest
        environment:
          Laddr: "127.0.0.1:2000"
          Raddr: "127.0.0.1:3000"
        ports:
          - "2000:2000/udp"
    
    MLEKAR_STEIN
    MLEKAR_STEIN --- ---
    ADM: díky za postrčení, byl jsem unavenej a nedošlo mi, že jsou jednodušší cesty jako třeba bind portu... :-)
    ADM
    ADM --- ---
    MLEKAR_STEIN: o co presne ti jde? do kontejneru forwardujes z hosta port, to standardne zajistuje docker-proxy, ktery ten port binduje na hostovi a portforwarduje sluzbe v kontejneru, a muzes si urcit i na jakym IP rozhrani, a nebo si muzes sluzbu v kontejneru rovnou bindnout na host port a obejit docker-proxy, pokud pouzijes network host mode
    MLEKAR_STEIN
    MLEKAR_STEIN --- ---
    dotaz k sítím v dockeru v compose.
    verzi dockeru mám poslední, compose taky.

    dostal jsem za úkol, jako nouzové řešení
    udělat aby kontejnery byly vidět na vnější adrese serveru v rozsahu, ve kerém ten vnější adaptér serveru je.
    není mi moc jasné, jak na to vytvořit "bridge síť" nebo jak jinak se s tím poprat.

    díky moc.
    RUDOLF
    RUDOLF --- ---
    ADM: jj, ve swarmu slouží healthcheck jen jako indikátor, zda má swarm kontejner restartovat. That's all. Žádnou cross container logiku bych tímhle neřešeil.
    ADM
    ADM --- ---
    RUDOLF: jasne, ja tam nakonec dam nejaky shell healthcheck renatomefi/php-fpm-healthcheck (pouziva fastcgi binarku), akorat me zarazilo ze v single docker-compose to funguje (a je to defakto lepsi healthcheck, protoze je to vlastne nadmnozina co do testovanych podminek), ale to je jen takovy vedlejsi efekt.

    bohuzel ve swarm mode je pokud to dobre chapu mozny healthcheck jen na localhost (dns name neni zaregistrovan dokud neprojde healthcheck), coz je takovy dost ... no .. ne uplne idealni, oproti kubernetes, kde jsou rovnou 2 typy healthchecku a hlavne jsou z hlediska containeru externi.
    RUDOLF
    RUDOLF --- ---
    ADM: nejsme stopro jistej, jestli jsem tě dokonale pochopil, tak odpověď podle toho vypadá.

    ve swarmu healthcheckuju jen sám sebe (tj. localhost), je tam možnost i delayed healtchecku, než to všechno naběhne.. logika je v tom, že swarm restartuje jen kontejner, který healtcheckuje..

    ad nginx a upstream služeb, správné je používat hostnames - defaultně je to název služby v compose definici a pak ještě můžeš přiřadit aliasy..
    ADM
    ADM --- ---
    nejak se nemuzu vymotat ze zavislosti v docker swarm modu, modelovy priklad, fungujici v single docker-compose:

    mam v docker-compose 3 sluzby, nginx http frontend a 2 php fcgi backendy. z hlediska komunikace jsou hostnamy jmena tech sluzeb, dejme tomu service-http, service1-php a service2-php, kvuli healtcheckum tech php-fpm sluzeb a taky kvuli tomu ze ty php-fpm mohou komunikovat uvnitr mezi sebou navzajem pres http, ma nginx frontend na sobe jeste network aliasy service1-http a service2-http.

    na php-fpm sluzbach je healthcheck jako GET http://service1-http/, tedy taze se sam sebe pres ten nginx fontend (ktery pro service1-http pouzije fcgi backend ten ktery se pta, tedy service1-php:9000). potud vse funguje v single docker-compose, ovsem ve swarm stack modu stejna kompozice nefunguje, protoze service1-php se do interniho dns dostane az v okamziku, kdy projde healthcheck, ktery samozrejme neprojde, protoze nginx na nej nevidi, dokud neni v dns.

    neprisel jsem na to co s tim, snad nahradit ten healthcheck necim co pobezi v ramci localhostu pouze pres fastcgi, ale neni to uplne idealni. pouzit v ramdi definice network v docker-compose ip adresy natvrdo taky neni mozny, nginx si pri startu kontroluje vsechny upstream definice a kdyz nebezi, tak uz je neservicuje, proto se jako adresy upstream fastcgi pouziva hostname
    WOODMAKER
    WOODMAKER --- ---
    WOODMAKER: jo, tak ta poslední věta není tak úplně pravda, fakt doporučuju si přečíst todle: WOODMAKER
    MLEKAR_STEIN
    MLEKAR_STEIN --- ---
    URPUTNIK: to s tim klonem repo, dělám to tak, že mám nadefinovaný, že se mi má vyklonovat repo, m8m to v jenkinsu, takže v Jenkins file, ale může to být klidně ve scriptu, a pak z něj do docker image nakopíruju co potřebuju,
    A specielně na tohle mi přijde vhodný multistage build. kde si napřed udělám build jedné image, kde se něco kopíruje, dělají kouzla se scripty a tak. a pak, v tomto případě výsledné přeložené cosi vykopíruju v dalším stage.
    a předpokládá to, že to má nějaké předpřipravené image, ve kterých se to všechno provádí.

    příklad

    FROM example.com/debian:build as BUILD

    ENV WRK=/here/is/wrk
    RUN mkdir -p $WRK/REPO
    COPY /repo/somewhere $WRK/REPO
    RUN somebuildscript.sh

    FROM mydomain.test/docker/runimage:7.5.2-stage

    COPY --from=BUILD /build/path/to/binary /target/path/

    EXPOSE 16666

    ENTRYPOINT ["/docker-entrypoint.sh"]
    CMD ["parameter"]
    ADM
    ADM --- ---
    URPUTNIK: nevim jaky zmeny ve skutecnosti predstavuje ten 'lokalizovany' image, ale snazil bych se co nejvic drzet jen jedinou verzi image, a v runtime ty image pak vybrat konkretni lokalizovanou verzi treba podle env promenny.
    samozrejme pokud jednotliva lokalizace neznamena vyrazny rozdil ve velikosti image pokud bys mel vsechny lokalizace nacpat do jedny
    WOODMAKER
    WOODMAKER --- ---
    URPUTNIK: nevhodná připomínka:
    pokud se N dockerfilů liší jen v posledním kroku, který nastavuje jazyk, jako jistotu bych viděl způsob, že bys udělal společný (N+1) dockerfile, který bys zbuildil jen lokálně a ostatní z něj budou dědit. Ty ostatní pak můžeš pushnout do registru.

    Tipuju, že pokud budeš mít N stejných dockerfilů, ze kterých budeš buildit image, provedou se vždycky všechny kroky v každém z nich.
    URPUTNIK
    URPUTNIK --- ---
    URPUTNIK: resp da se v dockerfilu vynutit, aby ten nasledujici prikaz nekesoval? na SO to obchazi pres argument, ktery se vlastne nepouzije, ale je pokazde 'jiny' ..
    URPUTNIK
    URPUTNIK --- ---
    dobre rano, tak dalsi dotaz .. kontext: mejme aplikaci, ktera potrebuje nejakou konfiguraci (pripojeni na dalsi aplikace, nastaveni poplatne lokalizaci) .. lokalizace jsou 'stejne' (tzn napriklad anglicka lokalizace je stejna, nehlede na prostredi kde se to bude poustet), ale pripojeni dal je prostredi poplatne .. mam v planu udelat image, ktery posklada aplikaci a v poslednim kroku buildeni image se vybere lokalizace podle parametru a vyrobi se konkretni 'lokalizovany' image .. nastaveni poplatne prostredi se pak primountuje ve chvili, kdy se image pousti .. coz ale znamena, ze budu vyrabet napr 5 ruznych variant 1 image (pro kazdou lokalizaci jiny image) .. dotaz: ma smysl, jejich build radit za sebe seriove (tzn ze docker prvni zbuildi, od druhyho vezme z kese vsechno az na lokalizaci (pokud je v buildeni image posunem do pozdnich 'layer')), nebo paralelne (tam se zas zredukuje cas buildu, pac se budou ty image buildit paralelne) .. predpokladam ze obecna odpoved neni, je to asi poplatne obsahu dockerfile .. souhlas?

    a dalsi, predpokladam ze klonovani napriklad git repository pri buildu image neni vhodne, coz? protoze nam se to chova tak, ze docker povazuje ten layer za stejny a reusne ho z predchoziho buildu, misto aby naklonoval aktualni repo .. takze 'spravne' bude to klonovani udelat 'vne docker buildu' a vysledek dovnitr nakopirovat?
    URPUTNIK
    URPUTNIK --- ---
    ADM: snaha se ceni :) ale nemusis se s tim trapit, privatni repo v nexusu + docker hub proxy + group proxy na pull se mi podarilo nakonfigurovat .. a pushuju teda s nasim 'namespace' (funguje i bez)
    ADM
    ADM --- ---
    vim ze to uplne smysl nedava, pouzival jsem docker registry akorat v kubernetes (openshift, icp) kde je to mapovany na namespace, v nexus dokumentaci pisou ze to neumi, ale zitra zkusim otagovat image do nexusu i s cestou a pushout to tam
    ADM
    ADM --- ---
    URPUTNIK: docker-registry-url/namespace/image:tag tak ten namespace se pouziva u nekterych docker-registry jako forma autorizace (namespace tedy spis jako projekt), ale nexus to prave neumi, ten umi udelat vice 'hosted' registry jen na ruznych portech (coz asi pujde nejak skryt za loadbalancerem) ale kazdy projekt ma tedy jiny push url, a aby to jeste vic zamotali tak jde nad tim udelat jednotny pull docker 'group' registry (ktery zaroven jeste muze byt proxy dockerhubu). nikde jsem to nevidel poradne vysvetleny ale docker registry pry nic jako cestu/namespacy neumi (docker login nedelas na url ale na hosta) to delaji ty frontendy nad tim (treba docker-regisry v kubernetes to prave mapuje na namespacy).
    Kliknutím sem můžete změnit nastavení reklam