The Rise of Machines: Real World Applications of AI
Artificiell intelligens är inte i framtiden, det är här i nuet I den här bloggen Läs hur Artificiell intelligens-applikationer har påverkat olika sektorer.
När du kör en webbapplikation vill du normalt få ut så mycket som möjligt av dina resurser utan att behöva konvertera din programvara till att använda multithreading eller komplexa händelseloopar. Docker erbjuder dock ett enkelt sätt för dig att lastbalansera din applikation internt för att få ut det mesta av serverresurserna. Den här artikeln kommer att visa dig hur du använder Nginx för att lastbalansera din webbapplikation med Docker på CentOS.
Vi kommer att använda rost för att bygga denna enkla applikation. Förutsatt att du har installerat rost, kör cargo new webapp –bin. Efter framgång kommer du att se en katalog som heter webapp. Inuti webappkommer du att se en fil som heter Cargo.toml. Lägg till följande rader till den:
[dependencies.iron]
version = "*"
Ta sedan src/main.rsbort allt inuti filen och fyll i den med följande:
extern crate iron;
use iron::prelude::*;
use iron::status;
fn main() {
Iron::new(|_: &mut Request| {
Ok(Response::with((status::Ok, "Hello Vultr :)")))
}).http("0.0.0.0:3000").unwrap();
}
Obs: Ändra inte IP-adressen i programmet. Detta är konfigurerat så att Docker kan lyssna på din applikation.
När du är klar kompilerar du programmet genom att köra cargo build –release. Beroende på din server kan det ta några minuter. Om det inte finns några fel, testa programmet genom att följa dessa steg:
target/release/webapp.http://0.0.0.0:3000/i din webbläsare. Ersätt 0.0.0.0med din servers IP-adress.Om allt fungerade korrekt kommer du att se "Hej Vultr :)" på sidan.
Skapa en Dockerfileoch fyll i den med följande:
FROM centos:latest
MAINTAINER User <user@localhost>
RUN yum update -y
COPY ./webapp/target/release/webapp /opt/
EXPOSE 3000
WORKDIR /opt
CMD ./webapp
Spara filen. Skapa sedan en fil som heter deploy.shoch fyll i den med följande:
DEFAULT_PORT=45710
APP_PORT=3000
DEPLOY=5
NAME="webapp"
docker build -t webapp:example .
for ((i=0; i<DEPLOY; i++)); do
docker kill $NAME$i ; docker rm $NAME$i
docker run --name $NAME$i -p 127.0.0.1:$(((i * 1000) + DEFAULT_PORT)):$APP_PORT -d webapp:example
done
När du kör det här skriptet kommer det att bygga bilden och distribuera behållaren baserat på mängden du har angett (standard är 5). Om behållaren finns kommer den att döda och ta bort den från registret innan den distribueras igen.
Skapa nu en Nginx-konfigurationsfil och fyll i den med följande:
upstream application {
server localhost:45710;
server localhost:46710;
server localhost:47710;
server localhost:48710;
server localhost:49710;
}
server {
listen 0.0.0.0:80;
location / {
expires 1w;
proxy_pass http://application;
proxy_redirect off;
proxy_http_version 1.1;
proxy_set_header X-Forwarded-Host $host;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}
Ersätt 0.0.0.0med din servers IP-adress.
Starta om Nginx genom att göra systemctl restart nginx. Åtgärda eventuella fel och fortsätt sedan till nästa steg.
Distribuera programmet genom att köra bash ./deploy.sh.
Du kan kontrollera statusen för din ansökan med docker ps- det kommer att skapas 5 bilder som börjar med webapp. Nu, navigera till http://0.0.0.0:3000/i din webbläsare, kommer du att se meddelandet "Hej, Vultr :)" igen.
Så, exakt vilken skillnad gör detta?
Om du kör ett benchmarktest mot belastningsbalanseringskonfigurationen, skulle du märka att fler av dina serverresurser används, vilket är vad du skulle vilja, speciellt om din applikation är byggd i språk som Node där den normalt skulle vara entrådad. Om du någonsin behöver uppgradera din applikation kan du göra det och köra om för deploy.shatt bygga om bilden och distribuera dina behållare.
Artificiell intelligens är inte i framtiden, det är här i nuet I den här bloggen Läs hur Artificiell intelligens-applikationer har påverkat olika sektorer.
Är du också ett offer för DDOS-attacker och förvirrad över de förebyggande metoderna? Läs den här artikeln för att lösa dina frågor.
Du kanske har hört att hackare tjänar mycket pengar, men har du någonsin undrat hur de tjänar den typen av pengar? låt oss diskutera.
Vill du se revolutionerande uppfinningar av Google och hur dessa uppfinningar förändrade livet för varje människa idag? Läs sedan till bloggen för att se uppfinningar av Google.
Konceptet med att självkörande bilar ska ut på vägarna med hjälp av artificiell intelligens är en dröm vi har ett tag nu. Men trots flera löften finns de ingenstans att se. Läs den här bloggen för att lära dig mer...
När vetenskapen utvecklas i snabb takt och tar över en hel del av våra ansträngningar, ökar också riskerna för att utsätta oss för en oförklarlig singularitet. Läs, vad singularitet kan betyda för oss.
Läs bloggen för att känna till olika lager i Big Data Architecture och deras funktionaliteter på enklaste sätt.
Lagringsmetoderna för data har utvecklats kan vara sedan födelsen av data. Den här bloggen tar upp utvecklingen av datalagring på basis av en infografik.
I denna digitala värld har smarta hemenheter blivit en avgörande del av livet. Här är några fantastiska fördelar med smarta hemenheter om hur de gör vårt liv värt att leva och enklare.
Nyligen släppte Apple macOS Catalina 10.15.4, en tilläggsuppdatering för att åtgärda problem, men det verkar som om uppdateringen orsakar fler problem som leder till att mac-datorer blir murade. Läs den här artikeln för att lära dig mer