Trin 1: Opret en simpel applikation
Trin 2: Opret Docker-containere
Trin 3: Konfigurer Nginx
Trin 4: Implementer applikation
Når du kører en webapplikation, ønsker du normalt at få mest muligt ud af dine ressourcer uden at skulle konvertere din software til at bruge multithreading eller komplekse hændelsesløkker. Docker giver dig dog en enkel måde til at loadbalancere din applikation internt for at få mest muligt ud af serverressourcer. Denne artikel viser dig, hvordan du bruger Nginx til at indlæse balance i din webapplikation ved hjælp af Docker på CentOS.
Trin 1: Opret en simpel applikation
Vi vil bruge rust til at bygge denne enkle applikation. Hvis du antager, at du har installeret rust, skal du køre cargo new webapp –bin
. Ved succes vil du se en mappe kaldet webapp
. Inde i webapp
vil du se en fil kaldet Cargo.toml
. Føj følgende linjer til det:
[dependencies.iron]
version = "*"
src/main.rs
Fjern derefter alt inde i filen og udfyld den med følgende:
extern crate iron;
use iron::prelude::*;
use iron::status;
fn main() {
Iron::new(|_: &mut Request| {
Ok(Response::with((status::Ok, "Hello Vultr :)")))
}).http("0.0.0.0:3000").unwrap();
}
Bemærk: Ændr ikke IP-adressen i applikationen. Dette er konfigureret, så Docker kan lytte til din applikation.
Når du er færdig, kompiler du programmet ved at udføre cargo build –release
. Afhængigt af din server kan det tage et par minutter. Hvis der ikke er nogen fejl, test applikationen ved at følge disse trin:
- Løb
target/release/webapp
.
- Naviger til
http://0.0.0.0:3000/
i din browser. Erstat 0.0.0.0
med IP-adressen på din server.
Hvis alt fungerede korrekt, vil du se "Hej Vultr :)" på siden.
Trin 2: Opret Docker-containere
Opret en Dockerfile
og udfyld den med følgende:
FROM centos:latest
MAINTAINER User <user@localhost>
RUN yum update -y
COPY ./webapp/target/release/webapp /opt/
EXPOSE 3000
WORKDIR /opt
CMD ./webapp
Gem filen. Opret derefter en fil kaldet deploy.sh
og udfyld den med følgende:
DEFAULT_PORT=45710
APP_PORT=3000
DEPLOY=5
NAME="webapp"
docker build -t webapp:example .
for ((i=0; i<DEPLOY; i++)); do
docker kill $NAME$i ; docker rm $NAME$i
docker run --name $NAME$i -p 127.0.0.1:$(((i * 1000) + DEFAULT_PORT)):$APP_PORT -d webapp:example
done
Når du kører dette script, vil det bygge billedet og implementere containeren baseret på det beløb, du har angivet (standard er 5). Hvis beholderen findes, vil den dræbe og fjerne den fra registreringsdatabasen, før den implementeres igen.
Opret nu en Nginx-konfigurationsfil og udfyld den med følgende:
upstream application {
server localhost:45710;
server localhost:46710;
server localhost:47710;
server localhost:48710;
server localhost:49710;
}
server {
listen 0.0.0.0:80;
location / {
expires 1w;
proxy_pass http://application;
proxy_redirect off;
proxy_http_version 1.1;
proxy_set_header X-Forwarded-Host $host;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}
Erstat 0.0.0.0
med IP-adressen på din server.
Genstart Nginx ved at gøre systemctl restart nginx
. Løs eventuelle fejl, og fortsæt derefter til næste trin.
Trin 4: Implementer applikation
Implementer applikationen ved at køre bash ./deploy.sh
.
Du kan tjekke status for din ansøgning med docker ps
- der bliver oprettet 5 billeder, der starter med webapp
. Nu, naviger til http://0.0.0.0:3000/
i din browser, vil du se meddelelsen "Hej, Vultr :)" igen.
Så hvilken forskel gør det helt præcist?
Hvis du kører en benchmark-test mod load balancer-konfigurationen, vil du bemærke, at flere af dine serverressourcer bliver brugt, hvilket er det, du gerne vil have, især hvis din applikation er bygget i sprog som Node, hvor den normalt ville være enkelttrådet. Hvis du nogensinde har brug for at opgradere din applikation, kan du gøre det og køre igen for deploy.sh
at genopbygge billedet og implementere dine containere.