The Rise of Machines: Real World Applications of AI
Kunstig intelligens er ikke i fremtiden, det er her lige i nuet I denne blog Læs, hvordan kunstig intelligens-applikationer har påvirket forskellige sektorer.
Apache Kafka er et skalerbart og high-throughput meddelelsessystem, som er i stand til effektivt at håndtere en enorm mængde data.
Du kan enten implementere Kafka på én server eller bygge en distribueret Kafka-klynge for større ydeevne. Som en starter forklarer denne artikel, hvordan man installerer Apache Kafka på en enkelt Vultr CentOS 7-serverinstans.
Inden du går videre, bør du:
Brug kommandoen nedenfor til at opdatere dit system til den seneste stabile status:
sudo yum update -y && sudo reboot
Når genstarten er afsluttet, skal du bruge den samme sudo-bruger til at logge på igen.
Du skal konfigurere en virtuel Java-maskine på dit system, før du kan køre Apache Kafka korrekt. Her kan du installere OpenJDK Runtime Environment 1.8.0 ved hjælp af YUM:
sudo yum install java-1.8.0-openjdk.x86_64
Valider din installation med:
java -version
Outputtet skal ligne:
openjdk version "1.8.0_91"
OpenJDK Runtime Environment (build 1.8.0_91-b14)
OpenJDK 64-Bit Server VM (build 25.91-b14, mixed mode)
Du skal også opsætte miljøvariablerne "JAVA_HOME" og "JRE_HOME":
sudo vi /etc/profile
Føj følgende linjer til det originale indhold af filen:
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk
export JRE_HOME=/usr/lib/jvm/jre
Gem og luk:
:wq
Genindlæs profilen for at sætte dine ændringer i kraft:
source /etc/profile
Download den seneste stabile version af Apache Kafka fra den officielle hjemmeside. I skrivende stund er det 0.9.0.1.
cd ~
wget http://www-us.apache.org/dist/kafka/0.9.0.1/kafka_2.11-0.9.0.1.tgz
Pak arkivet ud til en foretrukken placering, såsom /opt:
tar -xvf kafka_2.11-0.9.0.1.tgz
sudo mv kafka_2.11-0.9.0.1 /opt
På dette tidspunkt er Apache Kafka tilgængelig på dit system. Lad os prøve den.
cd /opt/kafka_2.11-0.9.0.1
bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
vi bin/kafka-server-start.sh
Juster hukommelsesforbruget i henhold til dine specifikke systemparametre. For eksempel, hvis du bruger en Vultr-serverinstans med 768 MB hukommelse i testmiljøet, skal du finde følgende linje:
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
Erstat den med:
export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
Gem en afslutning:
:wq
bin/kafka-server-start.sh config/server.properties
Hvis alt gik med succes, vil du se flere meddelelser om Kafka-serverens status, og den sidste vil læse:
INFO [Kafka Server 0], started (kafka.server.KafkaServer)
Det betyder, at du har startet Kafka-serveren.
Åbn en ny SSH-forbindelse, brug følgende kommandoer til at oprette et emne "test":
cd /opt/kafka_2.11-0.9.0.1
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
Du kan se dine emner med følgende kommando:
bin/kafka-topics.sh --list --zookeeper localhost:2181
I vores tilfælde vil outputtet læse:
test
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
Ved at bruge kommandoen ovenfor kan du indtaste et vilkårligt antal beskeder, som du ønsker, såsom:
Welcome aboard!
Bonjour!
Hvis du modtager en fejl, der ligner, "WARN Error while fetching metadata with correlation id"når du indtaster en meddelelse, skal du opdatere server.propertiesfilen med følgende oplysninger:
port = 9092
advertised.host.name = localhost
Åbn en tredje SSH-forbindelse, og kør derefter følgende kommandoer:
cd /opt/kafka_2.11-0.9.0.1
bin/kafka-console-consumer.sh --zookeeper localhost:9092 --topic test --from-beginning
Ta-da! De meddelelser, du producerede tidligere, vises i den tredje SSH-forbindelse. Selvfølgelig, hvis du indtaster flere beskeder fra den anden SSH-forbindelse nu, vil du straks se dem på den tredje SSH-forbindelse.
Til sidst kan du trykke på Ctrl+C på hver SSH-forbindelse for at stoppe disse scripts.
Det er det. Du kan lære mere om Apache Kafka på den officielle hjemmeside. Hav det sjovt!
Kunstig intelligens er ikke i fremtiden, det er her lige i nuet I denne blog Læs, hvordan kunstig intelligens-applikationer har påvirket forskellige sektorer.
Er du også et offer for DDOS-angreb og forvirret over forebyggelsesmetoderne? Læs denne artikel for at løse dine spørgsmål.
Du har måske hørt, at hackere tjener mange penge, men har du nogensinde spekuleret på, hvordan tjener de den slags penge? lad os diskutere.
Vil du se revolutionerende opfindelser fra Google, og hvordan disse opfindelser ændrede livet for ethvert menneske i dag? Læs derefter til bloggen for at se opfindelser fra Google.
Konceptet med selvkørende biler til at køre på vejene ved hjælp af kunstig intelligens er en drøm, vi har haft i et stykke tid nu. Men på trods af flere løfter er de ingen steder at se. Læs denne blog for at lære mere...
Efterhånden som videnskaben udvikler sig i et hurtigt tempo og overtager en stor del af vores indsats, stiger risikoen for at udsætte os selv for en uforklarlig Singularitet. Læs, hvad singularitet kunne betyde for os.
Læs bloggen for at kende forskellige lag i Big Data-arkitekturen og deres funktionaliteter på den enkleste måde.
Opbevaringsmetoderne for dataene har været under udvikling, kan være siden fødslen af dataene. Denne blog dækker udviklingen af datalagring på basis af en infografik.
I denne digitalt drevne verden er smarte hjemmeenheder blevet en afgørende del af livet. Her er et par fantastiske fordele ved smarte hjemmeenheder om, hvordan de gør vores liv værd at leve og enklere.
For nylig udgav Apple macOS Catalina 10.15.4 en supplerende opdatering for at løse problemer, men det ser ud til, at opdateringen forårsager flere problemer, hvilket fører til mursten af mac-maskiner. Læs denne artikel for at lære mere