Възходът на машините: Реални приложения на AI
Изкуственият интелект не е в бъдещето, тук е точно в настоящето. В този блог Прочетете как приложенията за изкуствен интелект са повлияли на различни сектори.
Apache Kafka е мащабируема и високопроизводителна система за съобщения, която е в състояние ефективно да обработва огромно количество данни.
Можете или да разположите Kafka на един сървър, или да изградите разпределен Kafka клъстер за по-голяма производителност. Като начало, тази статия обяснява как да инсталирате Apache Kafka на един единствен сървър на Vultr CentOS 7.
Преди да продължите, трябва:
Използвайте командата по-долу, за да актуализирате системата си до последното стабилно състояние:
sudo yum update -y && sudo reboot
След като рестартирането приключи, използвайте същия потребител на sudo, за да влезете отново.
Трябва да настроите виртуална машина Java на вашата система, преди да можете да стартирате правилно Apache Kafka. Тук можете да инсталирате OpenJDK Runtime Environment 1.8.0 с помощта на YUM:
sudo yum install java-1.8.0-openjdk.x86_64
Потвърдете вашата инсталация с:
java -version
Резултатът трябва да прилича на:
openjdk version "1.8.0_91"
OpenJDK Runtime Environment (build 1.8.0_91-b14)
OpenJDK 64-Bit Server VM (build 25.91-b14, mixed mode)
Вие също трябва да настроите променливите на средата "JAVA_HOME" и "JRE_HOME":
sudo vi /etc/profile
Добавете следните редове към оригиналното съдържание на файла:
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk
export JRE_HOME=/usr/lib/jvm/jre
Запазете и излезте:
:wq
Презаредете профила, за да приложите промените си:
source /etc/profile
Изтеглете най-новата стабилна версия на Apache Kafka от официалния уебсайт. Към момента на писане е 0.9.0.1.
cd ~
wget http://www-us.apache.org/dist/kafka/0.9.0.1/kafka_2.11-0.9.0.1.tgz
Разархивирайте архива на предпочитано място, като например /opt:
tar -xvf kafka_2.11-0.9.0.1.tgz
sudo mv kafka_2.11-0.9.0.1 /opt
В този момент Apache Kafka е наличен във вашата система. Нека го направим тест драйв.
cd /opt/kafka_2.11-0.9.0.1
bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
vi bin/kafka-server-start.sh
Регулирайте използването на паметта според вашите специфични системни параметри. Например, ако използвате сървърен екземпляр Vultr със 768MB памет в тестовата среда, трябва да намерите следния ред:
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
Заменете го с:
export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"
Запазете отказ:
:wq
bin/kafka-server-start.sh config/server.properties
Ако всичко е минало успешно, ще видите няколко съобщения за състоянието на сървъра Kafka, а последното ще чете:
INFO [Kafka Server 0], started (kafka.server.KafkaServer)
Това означава, че сте стартирали сървъра на Kafka.
Отворете нова SSH връзка, използвайте следните команди, за да създадете тема "тест":
cd /opt/kafka_2.11-0.9.0.1
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
Можете да видите вашите теми със следната команда:
bin/kafka-topics.sh --list --zookeeper localhost:2181
В нашия случай изходът ще чете:
test
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
Използвайки командата по-горе, можете да въведете произволен брой съобщения, както желаете, като например:
Welcome aboard!
Bonjour!
Ако получите грешка, подобна на тази "WARN Error while fetching metadata with correlation id"при въвеждане на съобщение, ще трябва да актуализирате server.propertiesфайла със следната информация:
port = 9092
advertised.host.name = localhost
Отворете трета SSH връзка и след това изпълнете следните команди:
cd /opt/kafka_2.11-0.9.0.1
bin/kafka-console-consumer.sh --zookeeper localhost:9092 --topic test --from-beginning
Та-да! Съобщенията, които сте създали по-рано, ще се покажат в третата SSH връзка. Разбира се, ако въведете още съобщения от втората SSH връзка сега, веднага ще ги видите на третата SSH връзка.
И накрая, можете да натиснете Ctrl+C на всяка SSH връзка, за да спрете тези скриптове.
Това е. Можете да научите повече за Apache Kafka на официалния уебсайт. Забавлявай се!
Изкуственият интелект не е в бъдещето, тук е точно в настоящето. В този блог Прочетете как приложенията за изкуствен интелект са повлияли на различни сектори.
Вие също сте жертва на DDOS атаки и сте объркани относно методите за превенция? Прочетете тази статия, за да разрешите вашите запитвания.
Може би сте чували, че хакерите печелят много пари, но чудили ли сте се някога как печелят такива пари? нека обсъдим.
Искате ли да видите революционни изобретения на Google и как тези изобретения промениха живота на всяко човешко същество днес? След това прочетете в блога, за да видите изобретенията на Google.
Концепцията за самоуправляващи се автомобили да тръгват по пътищата с помощта на изкуствен интелект е мечта, която имаме от известно време. Но въпреки няколкото обещания, те не се виждат никъде. Прочетете този блог, за да научите повече…
Тъй като науката се развива с бързи темпове, поемайки много от нашите усилия, рискът да се подложим на необяснима сингулярност също нараства. Прочетете какво може да означава сингулярността за нас.
Прочетете блога, за да разберете различни слоеве в архитектурата на големи данни и техните функционалности по най-простия начин.
Методите за съхранение на данните може да се развиват от раждането на данните. Този блог обхваща развитието на съхранението на данни на базата на инфографика.
В този дигитално задвижван свят устройствата за интелигентен дом се превърнаха в решаваща част от живота. Ето няколко невероятни предимства на интелигентните домашни устройства за това как те правят живота ни струващ и по-опростен.
Наскоро Apple пусна macOS Catalina 10.15.4 допълнителна актуализация за отстраняване на проблеми, но изглежда, че актуализацията причинява повече проблеми, водещи до блокиране на mac машини. Прочетете тази статия, за да научите повече