The Rise of Machines: Real World Applications of AI
Kunstig intelligens er ikke i fremtiden, det er her lige i nuet I denne blog Læs, hvordan kunstig intelligens-applikationer har påvirket forskellige sektorer.
Når du kører en webapplikation, ønsker du normalt at få mest muligt ud af dine ressourcer uden at skulle konvertere din software til at bruge multithreading eller komplekse hændelsesløkker. Docker giver dig dog en enkel måde til at loadbalancere din applikation internt for at få mest muligt ud af serverressourcer. Denne artikel viser dig, hvordan du bruger Nginx til at indlæse balance i din webapplikation ved hjælp af Docker på CentOS.
Vi vil bruge rust til at bygge denne enkle applikation. Hvis du antager, at du har installeret rust, skal du køre cargo new webapp –bin. Ved succes vil du se en mappe kaldet webapp. Inde i webappvil du se en fil kaldet Cargo.toml. Føj følgende linjer til det:
[dependencies.iron]
version = "*"
src/main.rsFjern derefter alt inde i filen og udfyld den med følgende:
extern crate iron;
use iron::prelude::*;
use iron::status;
fn main() {
Iron::new(|_: &mut Request| {
Ok(Response::with((status::Ok, "Hello Vultr :)")))
}).http("0.0.0.0:3000").unwrap();
}
Bemærk: Ændr ikke IP-adressen i applikationen. Dette er konfigureret, så Docker kan lytte til din applikation.
Når du er færdig, kompiler du programmet ved at udføre cargo build –release. Afhængigt af din server kan det tage et par minutter. Hvis der ikke er nogen fejl, test applikationen ved at følge disse trin:
target/release/webapp.http://0.0.0.0:3000/i din browser. Erstat 0.0.0.0med IP-adressen på din server.Hvis alt fungerede korrekt, vil du se "Hej Vultr :)" på siden.
Opret en Dockerfileog udfyld den med følgende:
FROM centos:latest
MAINTAINER User <user@localhost>
RUN yum update -y
COPY ./webapp/target/release/webapp /opt/
EXPOSE 3000
WORKDIR /opt
CMD ./webapp
Gem filen. Opret derefter en fil kaldet deploy.shog udfyld den med følgende:
DEFAULT_PORT=45710
APP_PORT=3000
DEPLOY=5
NAME="webapp"
docker build -t webapp:example .
for ((i=0; i<DEPLOY; i++)); do
docker kill $NAME$i ; docker rm $NAME$i
docker run --name $NAME$i -p 127.0.0.1:$(((i * 1000) + DEFAULT_PORT)):$APP_PORT -d webapp:example
done
Når du kører dette script, vil det bygge billedet og implementere containeren baseret på det beløb, du har angivet (standard er 5). Hvis beholderen findes, vil den dræbe og fjerne den fra registreringsdatabasen, før den implementeres igen.
Opret nu en Nginx-konfigurationsfil og udfyld den med følgende:
upstream application {
server localhost:45710;
server localhost:46710;
server localhost:47710;
server localhost:48710;
server localhost:49710;
}
server {
listen 0.0.0.0:80;
location / {
expires 1w;
proxy_pass http://application;
proxy_redirect off;
proxy_http_version 1.1;
proxy_set_header X-Forwarded-Host $host;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}
Erstat 0.0.0.0med IP-adressen på din server.
Genstart Nginx ved at gøre systemctl restart nginx. Løs eventuelle fejl, og fortsæt derefter til næste trin.
Implementer applikationen ved at køre bash ./deploy.sh.
Du kan tjekke status for din ansøgning med docker ps- der bliver oprettet 5 billeder, der starter med webapp. Nu, naviger til http://0.0.0.0:3000/i din browser, vil du se meddelelsen "Hej, Vultr :)" igen.
Så hvilken forskel gør det helt præcist?
Hvis du kører en benchmark-test mod load balancer-konfigurationen, vil du bemærke, at flere af dine serverressourcer bliver brugt, hvilket er det, du gerne vil have, især hvis din applikation er bygget i sprog som Node, hvor den normalt ville være enkelttrådet. Hvis du nogensinde har brug for at opgradere din applikation, kan du gøre det og køre igen for deploy.shat genopbygge billedet og implementere dine containere.
Kunstig intelligens er ikke i fremtiden, det er her lige i nuet I denne blog Læs, hvordan kunstig intelligens-applikationer har påvirket forskellige sektorer.
Er du også et offer for DDOS-angreb og forvirret over forebyggelsesmetoderne? Læs denne artikel for at løse dine spørgsmål.
Du har måske hørt, at hackere tjener mange penge, men har du nogensinde spekuleret på, hvordan tjener de den slags penge? lad os diskutere.
Vil du se revolutionerende opfindelser fra Google, og hvordan disse opfindelser ændrede livet for ethvert menneske i dag? Læs derefter til bloggen for at se opfindelser fra Google.
Konceptet med selvkørende biler til at køre på vejene ved hjælp af kunstig intelligens er en drøm, vi har haft i et stykke tid nu. Men på trods af flere løfter er de ingen steder at se. Læs denne blog for at lære mere...
Efterhånden som videnskaben udvikler sig i et hurtigt tempo og overtager en stor del af vores indsats, stiger risikoen for at udsætte os selv for en uforklarlig Singularitet. Læs, hvad singularitet kunne betyde for os.
Læs bloggen for at kende forskellige lag i Big Data-arkitekturen og deres funktionaliteter på den enkleste måde.
Opbevaringsmetoderne for dataene har været under udvikling, kan være siden fødslen af dataene. Denne blog dækker udviklingen af datalagring på basis af en infografik.
I denne digitalt drevne verden er smarte hjemmeenheder blevet en afgørende del af livet. Her er et par fantastiske fordele ved smarte hjemmeenheder om, hvordan de gør vores liv værd at leve og enklere.
For nylig udgav Apple macOS Catalina 10.15.4 en supplerende opdatering for at løse problemer, men det ser ud til, at opdateringen forårsager flere problemer, hvilket fører til mursten af mac-maskiner. Læs denne artikel for at lære mere