588 total views, 4 views today
Anders Fongen, september 2022
Å konstruere Docker-komponenter og utplassere (eng. deploy) dem i en lokal kontainer på egen maskin er en ganske overkommelig oppgave. Mer omstendelig er det å sette slike komponenter i drift i en sky. De store skytjenestene (f.eks. Amazon AWS, Google Cloud og Microsoft Azure) er svært store og komplekse installasjoner som skal kunne betjene kunder med helt ulike behov. De tilbyr alle en web-tjeneste (portal) som lar kunden laste opp egenutviklet programvare og konfigurere samspillet med de tjenestene som skyen tilbyr (f.eks. sikkerhet, backup, navnekataloger, fillagring og SQL-databaser). For alle disse skyene blir denne portalen svært omfattende og omstendelig å bruke. Kvaliteten på dokumentasjonen er dessuten svært varierende.
Jeg har tatt for meg utvikling, utplassering, feilsøking og drift av Docker-komponenter med påfølgende utplassering i Microsoft Azure. Etter vellykket utplassering er tjenesten tilgjengelig på Internet. Dette blogginnlegget vil vise hvordan det kan skje.
Hvorfor er skyen en god idé?
Visst er det mulig å sette opp en webtjener på ditt eget hjemmenett, bestille fast IP-adresse hos Internet-leverandøren, sette opp port forwarding på hjemmeruteren, og gi hjemmeadressen et DNS-navn. Denne prosessen har jeg forøvrig beskrevet i et eget blogginnlegg.
Med et slik løsning må du selv ta hånd om sikkerhet, backup, reserveløsninger ved systembrudd, brukertillatelser, og fremfor alt skalering. En vellykket tjeneste på Internet kan oppnå en svært rask vekst i kundemengden, og dersom du ikke klarer å opprettholde en akseptabel responstid under slike forhold har du mislykkes.
Disse kravene kan skyen innfri, fordi de besitter store datasentraler med høy nettverkskapasitet, og de kan raskt øke kapasiteten på tjenesten din, de kan endog gjøre det automatisk. Personellet i datasentralene er eksperter på skalering, sikkerhet, overvåking og etterforskning, og de har ingen annen jobb enn å passe på at tjenestene leverer stabilt og raskt. Du har andre oppgaver og vil ikke klare å gjøre denne jobben like godt.
Docker
Programvare som skal kjøres som en skytjeneste må skrives etter bestemte regler, og utplasseringen trenger noen opplysninger som må fremskaffes av kunden. Docker er programvare for å lage og kjøre skytjenester. Jeg skal ikke forklare Docker grundig her, fordi det finnes mye informasjon om nettopp dette på nettet:
- Docker Docs (her finnes også nødvendig programvare for nedlasting)
- Docker Curriculum
Det er nødvendig å gå gjennom noen eksempler på bygging og kjøring av Docker-komponenter på lokal maskin: Når Docker-komponenter kjøres på lokal maskin, f.eks. BusyBox, kan de kommunisere med brukeren gjennom konsollet, dvs. skjermen som brukes for å bygge og starte komponenter. Dette er ikke mulig på Azure, hvor komponenten må kommunisere med omverdenen gjennom nettverket (Internet).
Nettverkstrafikk kan omfatte protokoller som ssh, http, mqtt og det meste annet, men komponenten må selv besørge selve protokollen, Azure besørger bare UDP- og TCP porter, samt en brannvegg for å beskytte mot angrep via nettverket. Vi skal demonstrere bruk av Azure med web-komponenter som benytter http-protokoll.
Installasjon av programvare
For å kommunisere med Azure trengs programvaren Docker Desktop, installert på Windows eller Mac (bruk lenken ovenfor). I CMD-konsollet (Windows) kan man nå skrive $ docker for å utføre diverse kommandoer.
I den påfølgende tekst vil jeg bruke “$”-symbolet for å vise en kommando slik den skal skrives inn i CMD-konsollet. Dollartegnet skal altså ikke skrives inn.
For å utplassere Docker-komponenter på Azure trenger du følgende brukerkontoer:
- Hos hub.docker.com. Her plasserer du dine komponenter slik at andre kan laste dem ned til seg og bruke dem. Kontoen er gratis.
- Hos portal.azure.com. Her foregår selve kontrollen av Azur-aktivitetene. Duu må registrere et betalingskort, men du får også en romslig kvote gratis som du kan eksperimentere med.
Eksperimentprogrammer
To små Python-programmer blir brukt i denne demonstrasjonen: De ene er et enkelt tilstandsløst web-program som adderer to tall og viser resultatet, det andre web-programmet benytter en tekstfil som lagres på et permanent lager. Skillet mellom disse to programmene er hvordan de bruker permanent lager. Programmene ser slik ut:
Summere to tall (tilstandsløst web-program)
first.py:
import web
urls = ('/','index')
class index:
def GET(self):
f = open("first.html","r")
return f.read()
def POST(self):
i = web.input()
if i.a.isnumeric() and i.b.isnumeric():
return "Svaret er %d" % (int(i.a)+int(i.b))
else:
return "Kun numerisk inndata er lovlig"
if __name__ == '__main__':
app = web.application(urls,globals())
app.run()
first.html:
<html><body>
<h1>Addere to heltall</h1>
<form method='POST'>
<input name='a', size='4'>
<input name='b', size='4'>
<input type='submit' value='finn sum'>
</form>
</body></html>
Dockerfile:
FROM python:3.8
WORKDIR /usr/src/app
COPY . .
RUN pip3 install web.py
EXPOSE 8080
CMD ["python","./first.py"]
Dette webprogrammet kan startes direkte fra kommandolinjen og tilby en enkel tilstandsløs tjeneste. Vi kan når som helst restarte tjenesten uten å forstyrre klientene. Vi kan lage en Docker-komponent og kjøre den lokalt på vår egen maskin med disse kommandoene (de tre filene må ligge på samme katalog, og katalogen må være arbeidskatalog (current directory):
$ docker build -t first .
$ docker run --name container1 -d -p 8080:8080 first
Nå er denne webtjenesten tilgjengelig på http://localhost:8080/
. For å stoppe og fjerne tjenesten (f.eks. før utplassering av en ny programversjon) kan disse kommandoene skrives:
$ docker ps -a
$ docker stop container1
$ docker rm container1
Dele en liten datafil (tilstandsfylt web-program)
third.py:
import web, os
urls = ('/','index')
os.environ['PORT'] = '80'
app = web.application(urls, locals())
filename = "message.txt"
class index:
def GET(self):
if not os.path.isfile(filename):
f = open(filename,"w")
f.close()
message = "Ingen melding"
else:
f = open(filename,"r")
message = f.read()
resp ="<html><body><h2>Din siste melding var: %s"%(message)
resp += "<p>Skriv inn melding:<form method='POST'><input name='m' size='20'>"
resp += "<input type='submit' value='Lagre melding'></form></body></html>"
return resp
def POST(self):
i = web.input()
f = open(filename,"w")
f.write(i.m)
f.close()
raise web.seeother('/')
if __name__ == '__main__':
app.run()
Dockerfile:
FROM python:3.8
WORKDIR /usr/src/app
COPY . .
RUN pip3 install web.py
EXPOSE 80
CMD ["python","./third.py"]
Dette web-programmet vil ta imot en tekstlinje og lagre den på en fil, som siden kan hentes frem av denne eller andre klienter. En form for datadeling altså. Filen som lagrer tekstlinjen bør bevares også når programmet stopper og starter igjen. Dersom vi kjører third.py
som et vanlig Python-program vil filen ligge på vertsmaskinens filsystem, og vil dermed bevares slik vi ønsker.
Dersom vi lager en Docker-komponent som med forrige eksempel, vil også denne tekstlinjen bevares og utveksles mens Docker-komponenten kjører. Dersom Docker-kontaineren stoppes og startes igjen:
$ docker stop container1
$ docker start container1
(gitt at kontaineren er gitt navnet container1
ved docker run
– kommandoen), da vil fortsatt tekstlinjen bevares slik vi ønsker. Dersom vi derimot fjerner kontaineren og lager en ny:
$ docker stop container1
$ docker rm container1
$ docker run --name container1 -d -p 80:80 third
Da har tekstlinjen fått det innholdet den hadde da Docker-komponenten ble laget (evt. tom), og endringer etter det tidspunktet er gått tapt. Altså, ikke slik vi ønsker at webtjenesten vår skal fungere.
Docker-komponenter med volumes
For å kunne bevare data også når docker-kontaineren slettes og skapes på nytt, må dataene lagres utenfor kontaineren, i vertsmaskinens filsystem. Dette er mulig å få til gjennom å montere en del av vertsmaskinens filsystem inne i kontainerens. Vi skal først endre én programsetning i third.py:
filename = "/app/message.txt"
og bygger web-tjenesten på lignende måte:
$ docker build -t third .
$ docker run --name container3 -v textdata:/app -d -p 80:80 third
Da oppnår vi nemlig det vi ønsker, nemlig at innholdet på området textdata
i vertskapets filområde (i et nærmere bestemt filområde inne i Docker-installasjonen) vises under katalogen /app
inne i kontaineren, og data som lagres under /app
blir bevart selv når kontaineren slettes og gjenskapes. Dette kan kontrolleres ganske enkelt i et eksperiment.
Merk at dette permanente lageret kan lagre alle slags objekter, ikke bare tekstfiler: Bilder, lyd og selvfølgelig en databasefil fra f.eks. SQLite.
Litt om tilstander i Azure/Docker
Azure, i likhet med andre skyleverandører, lar Docker-komponenter kjøre i omgivelser som støtter stor skala, høy sikkerhet og dynamisk konfigurasjon. Det vil si at web-tjenesten som kjører kan gis et elastisk ressurstilbud ettersom pågangen øker og minker. Slik automatisk skalering skjer gjennom at Docker-komponenter kjører samtidig på mange maskiner i parallell (kalt flere instanser) og fordeler forespørselene mellom seg, og at antallet samtidige maskiner øker og minsker dynamisk.
Med datalagring inne i komponenten, slik vi har demonstrert med third.py
, vil ikke en slik skalering kunne finne sted, fordi alle instansene vil ha ulikt datainnhold siden de betjener ulike forespørsler. Nei, skalering krever at Docker-komponenten benytter en separat lagringstjeneste som behandler skrivbare data (som filen message.txt
i third.py
ovenfor). Kun lesbare data kan fortsatt legges inne i Docker-komponenten dersom mengden ikke er for stor.
Dette skillet mellom brukerbetjening, forretningslogikk og datalager er en populær og velprøvd konstruksjonsteknikk for store informasjonssystemer. Trafikken mot datalageret (kalt back-end) er ofte lavere enn mot front-end (web-tjenesten) og datalageret kan skaleres med andre teknikker enn en front-end. Derfor ser vi at dette skillet mellom utføring og lagring i adskilte tjenester går igjen hos alle skyleverandører.
Utplassering av third.py i Azure
Vi skal hoppe over utplassering av first.py
i Azure fordi det skjer på samme måten som med lokal Docker-plattform med noen små endringer, som vil fremgå av forklaringen som følger. Jeg skal gå gjennom utplassering av third.py
i Azure, etter at den ene programsetningen er endret (filename = "/app/message.txt
). Trinn for trinn er prosessen denne:
- Bygge en lokal Docker-komponent. Navnet på komponenten må prefikses med brukernavnet i Docker-hub, som i mitt tilfelle er andfon7a:
$ docker build -t andfon7a/third .
- Plassere komponenten i Docker-hub. Det er nemlig herfra at Azure skal hente den senere
$ docker login
(Her kreves brukernavn og passord til brukerkontoen din)$ docker push andfon7a/third
$ docker logout - Logge inn i Azure og opprette filområdet
$ docker login azure
(Får du feilmelding “Azure lookup failure”, har du feil
versjon av Docker installert. Bruk nyeste versjon av Docker desktop)$ docker context create aci mycontext
(velg “create new resource group”)
$ docker context use mycontext
$ docker volume create mydata --storage-account andfon7astorage - Lag en kontainer og start komponenten i den. Den lastes inn fra Docker-hub
$ docker run -p 80:80 --name third --domainname andfon7a -d -v andfon7astorage/mydata:/app andfon7a/third
- Sjekk at kontaineren kjører og hvilket DNS-navn den har fått.
$ docker ps
-a
– Sjekk nå med en web-leser at du får tak i tjenesten med dette DNS-navnet
Microsofts egen infoside om denne prosessen finner du her. Docker sin tilsvarende veiledning finnes her.
For å stoppe/starte/fjerne kontaineren bruker du kommandoene:$ docker stop third
$ docker start third
$ docker rm third
Starting av en kontainer kan ta lengre tid enn kun kommandoen i konsollet. Bruk $docker ps -a
for å se status i oppstartsarbeidet.
Om DNS-registreringen: For bruk av --domainname
parameteren gjelder det at DNS-navnet blir registrert på den tildelte IP-adressen med en TTL-verdi på 300 sekunder. Dersom du under f.eks. eksperimentarbeid statid starter containeren på nytt kan du komme i situasjonen hvor DNS-tjenesten fortsatt en stund returnerer den forrige IP-adressen. Om du utelater --domainname
parameteren vil $docker ps
vise deg IP-adressen i den samme kolonnen , som alltid er riktig.
Huskn
Når du vil igjen jobbe lokalt eller mot Docker-hub:$ docker logout azure
$ docker context use default
Docker-tjenester fra Amazon AWS og Google Cloud
Amazon AWS og Google Cloud er to konkurrerende skytjenester som i det store bildet har mye til felles. Begge disse kan enkelt støtte tilstandsløse Docker-komponenter, enklest gjennom egne kontrollprogrammer (à la docker
) som installeres i Windows-konsollet (cmd
).
- Google Cloud betjenes av programmet
Gcloud
som installeres på din lokale maskin. Opplastingen skjer direkte fra lokal maskin med commandoengcloud run deploy
, og nødvendige tilleggsopplysninger legges inn i den påfølgende dialogen. - For Amazon AWS skjer utplasseringen ved hjelp av en tilleggsfil som inneholder de nødvendige ekstraopplysningene (som ikke ligger i Dockerfile). For en veiledning for dette, sjekk avsnittet “Docker on AWS” på denne websiden.
Ingen av disse to skytjenestene støtter derimot Volumer, slik vi har vist er mulig i Azure. Derimot har begge database-tjenester som kan brukes av Docker-komponenter for lagring. Dette dekker noe av behovet for permanent lagring, men krever også at programvaren i større grad er tilpasset for dette og blir derfor mindre portabel enn hva som er ønskelig. Databasetjenester er dessuten krevende å konfigurere, sammenlignet med et filsystem.