One place for hosting & domains

      Cómo instalar Apache Kafka en Ubuntu 18.04


      El autor seleccionó la Free and Open Source Fundpara recibir una donación como parte del programa Write for DOnations.

      Introducción

      Apache Kafka es un intermediario de mensajes de distribución popular diseñado para gestionar de manera eficaz grandes volúmenes de datos en tiempo real. Un clúster Kafka no solo es escalable y tolerante a fallas, sino también tiene un rendimiento mucho más alto en comparación con otros intermediarios de mensajes como ActiveMQ y RabbitMQ. Aunque se utiliza generalmente como un sistema de mensajería de publicación y subscripción, muchas organizaciones también lo utilizan para la agregación de registros debido a que ofrece almacenamiento persistente para mensajes publicados.

      Un sistema de mensajería de publicación y subscripción permite a uno o más productores publicar mensajes sin tener en cuenta el número de consumidores ni la forma en que procesarán los mensajes. Los clientes suscritos reciben una notificación automática sobre las actualizaciones y la creación de nuevos mensajes. Este sistema es más eficaz y escalable que sistemas en los cuales los clientes de tanto en tanto averiguan si hay nuevos mensajes disponibles.

      En este tutorial, instalará y usará Apache Kafka 2.1.1 en Ubuntu 18.04.

      Requisitos previos

      Para continuar, necesitará lo siguiente:

      • Un servidor Ubuntu 18.04 y un usuario no root con privilegios sudo. Siga los pasos especificados en esta guía si no dispone de un usuario no root configurado.
      • Al menos 4 GB de RAM en el servidor. En instalaciones que no cuenten con esta cantidad de RAM, el servicio de Kafka puede fallar; la máquina virtual Java (JVM) muestra una excepción de “memoria insuficiente” durante el inicio.
      • OpenJDK 8 instalado en su servidor. Para instalar esta versión, siga estas instrucciones sobre la instalación de versiones específicas de OpenJDK. Kafka está escrito en Java, de forma que requiere una JVM; sin embargo, el script de su shell de arranque tiene un error de detección de versión que le impide iniciarse con las versiones de JVM posteriores a la 8.

      Paso 1: Creación de un usuario para Kafka

      Dado que Kafka puede gestionar las solicitudes a través de una red, debería crear un usuario dedicado para ella. Esto minimizará el daño al que se exponga su máquina con Ubuntu si el servidor Kafka se ve comprometido. En este paso, crearemos un usuario kafka dedicado. Sin embargo, debería crear un usuario no root diferente para realizar otras tareas en este servidor una vez que termine de configurar Kafka.

      Tras iniciar sesión como usuario sudo no root, cree un usuario llamado kafka con el comando de useradd:

      El indicador -m garantiza que se cree un directorio de inicio para el usuario. Este directorio de inicio /home/kafka actuará como nuestro directorio de espacios de trabajo para ejecutar comandos en las secciones que se muestran a continuación.

      Establezca la contraseña usando passwd:

      Añada el usuario kafka al grupo sudo con el comando adduser, de manera que tenga los privilegios necesarios para instalar las dependencias de Kafka.

      Con esto, su usuario kafka estará listo. Inicie sesión en esta cuenta usando su:

      Ahora que creamos el usuario específico de Kafka, podemos descargar y extraer los archivos binarios de Kafka.

      Procederemos a descargar los archivos binarios de Kafka y extraerlos en carpetas dedicadas, en el directorio de inicio de nuestro usuario kafka.

      Para comenzar, cree un directorio en /home/kafka llamado Downloads para almacenar sus descargas:

      Utilice curl para descargar los archivos binarios de Kafka:

      • curl "https://www.apache.org/dist/kafka/2.1.1/kafka_2.11-2.1.1.tgz" -o ~/Downloads/kafka.tgz

      Cree un directorio llamado kafka y ábralo. Este será el directorio de base de la instalación de Kafka:

      • mkdir ~/kafka && cd ~/kafka

      Extraiga el archivo que descargó usando el comando tar:

      • tar -xvzf ~/Downloads/kafka.tgz --strip 1

      Especificamos el indicador --strip 1 para asegurarnos de que los contenidos del archivo se extraigan en ~/kafka/ y no en otro directorio (como ~/kafka/kafka_2.11-2.1.1/) dentro de él.

      Ahora que descargamos y extrajimos los archivos binarios de forma correcta, podemos proceder con la configuración de Kafka para permitir la eliminación de temas.

      Paso 3: Configuración del servidor de Kafka

      El comportamiento predeterminado de Kafka no nos permitirá eliminar un __tema, la categoría, el grupo ni el nombre del feed en el cual pueden publicarse los mensajes. Para modificar esto, editemos el archivo de configuración.

      Las opciones de configuración de Kafka se especifican en server.properties. Abra este archivo con nano o su editor favorito:

      • nano ~/kafka/config/server.properties

      Agreguemos una configuración que nos permita eliminar temas de Kafka. Añada lo siguiente a la parte inferior del archivo:

      ~/kafka/config/server.properties

      delete.topic.enable = true
      

      Guarde el archivo y cierre nano. Ahora que configuramos Kafka, podemos crear archivos de unidad systemd para ejecutarlo y habilitarlo en el inicio.

      Paso 4: Creación de archivos de unidad systemd e inicio del servidor de Kafka

      En esta sección, crearemos archivos de unidad systemd para el servicio Kafka. Esto nos ayudará a realizar acciones de servicio comunes como iniciar, detener y reiniciar Kafka con un método compatible con otros servicios de Linux.

      Zookeeper es un servicio que utiliza Kafka para administrar el estado de sus clústeres y sus configuraciones. Se utiliza comúnmente en muchos sistemas distribuidos como componente integral. Si desea obtener más información más sobre él, consulte los documentos oficiales de Zookeeper.

      Cree el archivo de unidad para zookeeper:

      • sudo nano /etc/systemd/system/zookeeper.service

      Introduzca la siguiente definición de unidad en el archivo:

      /etc/systemd/system/zookeeper.service

      [Unit]
      Requires=network.target remote-fs.target
      After=network.target remote-fs.target
      
      [Service]
      Type=simple
      User=kafka
      ExecStart=/home/kafka/kafka/bin/zookeeper-server-start.sh /home/kafka/kafka/config/zookeeper.properties
      ExecStop=/home/kafka/kafka/bin/zookeeper-server-stop.sh
      Restart=on-abnormal
      
      [Install]
      WantedBy=multi-user.target
      

      En la sección [Unit], se especifica que para el inicio de Zookeeper la interconexión y el sistema de archivos deben estar listos.

      En la sección [Service] se especifica que sistemd debe usar los archivos de shell zookeeper-server-start.sh y zookeeper-server-stop.sh para iniciar y detener el servicio. También se especifica que Zookeeper debe reiniciarse automáticamente si se cierra de forma anormal.

      A continuación, cree el archivo de servicio de systemd para kafka:

      • sudo nano /etc/systemd/system/kafka.service

      Introduzca la siguiente definición de unidad en el archivo:

      /etc/systemd/system/kafka.service

      [Unit]
      Requires=zookeeper.service
      After=zookeeper.service
      
      [Service]
      Type=simple
      User=kafka
      ExecStart=/bin/sh -c '/home/kafka/kafka/bin/kafka-server-start.sh /home/kafka/kafka/config/server.properties > /home/kafka/kafka/kafka.log 2>&1'
      ExecStop=/home/kafka/kafka/bin/kafka-server-stop.sh
      Restart=on-abnormal
      
      [Install]
      WantedBy=multi-user.target
      

      En la sección [Unit] se especifica que este archivo de unidad depende de zookeeper.service. Esto garantizará que zookeeper se inicie de forma automática al iniciarse el servicio Kafka.

      En la sección [Service] se especifica que systemd debe usar los archivos de shell kafka-server-start.sh y kafka-server-stop.sh para iniciar y detener el servicio. También se especifica que Kafka debe reiniciarse de automáticamente si se cierra de forma anormal.

      Ahora que se definieron las unidades, inicie Kafka con el siguiente comando:

      • sudo systemctl start kafka

      Para asegurarse de que el servidor se haya iniciado de forma correcta, consulte los registros de diario para la unidad kafka:

      El resultado debe ser similar al siguiente:

      Output

      Jul 17 18:38:59 kafka-ubuntu systemd[1]: Started kafka.service.

      Ahora tiene un servidor Kafka que escucha en el puerto 9092.

      Aunque iniciamos el servicio kafka, si reiniciáramos nuestro servidor este no se iniciaría de forma automática. Para habilitar kafka en el arranque del servidor, ejecute lo siguiente:

      • sudo systemctl enable kafka

      Ahora que iniciamos y habilitamos los servicios, revisemos la instalación.

      Paso 5: Pruebas de instalación

      Publicaremos y consumiremos un mensaje “Hello World” para asegurarnos de que el comportamiento del servidor Kafka sea correcto. Para publicar mensajes en Kafka es necesario lo siguiente:

      • Un productor que permita la publicación de registros y datos en temas.
      • Un consumidor que lea mensajes y datos de temas.

      Primero, cree un tema llamado TutorialTopic escribiendo:

      • ~/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic TutorialTopic

      Puede crear un productor desde la línea de comando usando el script kafka-console-producer.sh. Se necesitan el nombre de host y el puerto del servidor de Kafka, y un nombre de tema como argumentos.

      Publique la cadena “Hello, World” en el tema TutorialTopic escribiendo lo siguiente:

      • echo "Hello, World" | ~/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic TutorialTopic > /dev/null

      A continuación, puede crear un consumidor de Kafka usando el script kafka-console-consumer.sh. Como argumentos se necesitan el nombre de host y puerto del servidor de ZooKeeper, y un nombre de tema.

      El siguiente comando consume mensajes de TutorialTopic. Tenga en cuenta el uso del indicador de --from-beginning, que permite el consumo de mensajes publicados antes de iniciar el consumidor:

      • ~/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic TutorialTopic --from-beginning

      Si no hay problemas de configuración, verá Hello, World en su terminal:

      Output

      Hello, World

      El script continuará ejecutándose y esperando a que se publiquen más mensajes en el tema. Siéntase libre de abrir un terminal nuevo e iniciar un productor para publicar algunos mensajes más. Debería poder verlos a todos en el resultado del consumidor.

      Cuando termine de realizar pruebas, presione CTRL+C para detener el script de consumidor. Ahora que probamos la instalación, procederemos a instalar KafkaT.

      Paso 6: Instalación de KafkaT (opcional)

      KafkaT es una herramienta de Airbnb que le permite ver fácilmente detalles sobre su clúster Kafka y realizar algunas tareas administrativas desde la línea de comandos. Debido a que es un gem joya de Ruby, necesitará Ruby para usarlo. También necesitará el paquete build-essential para poder compilar otros gem de los que depende. Realice la instalación usando apt:

      • sudo apt install ruby ruby-dev build-essential

      Ahora podrá instalar KafkaT usando el comando gem:

      KafkaT utiliza .kafkatcfg como archivo de configuración para determinar los directorios de instalación y registro de su servidor de Kafka. También debe tener una entrada que apunte a KafkaT en su instancia de ZooKeeper.

      Cree un nuevo archivo llamado .kafkatcfg:

      Agregue las siguientes líneas para especificar la información requerida sobre su servidor de Kafka y su instancia de Zookeeper:

      ~/.kafkatcfg

      {
        "kafka_path": "~/kafka",
        "log_path": "/tmp/kafka-logs",
        "zk_path": "localhost:2181"
      }
      

      Con esto, estará listo para usar KafkaT. Para comenzar, esta es la forma en que lo utilizaría para ver información sobre todas las particiones de Kafka:

      Verá lo siguiente:

      Output

      Topic Partition Leader Replicas ISRs TutorialTopic 0 0 [0] [0] __consumer_offsets 0 0 [0] [0] ... ...

      Verá TutorialTopic, así como __consumer_offsets, un tema interno que Kafka utiliza para almacenar información relacionada con el cliente. Puede ignorar líneas de forma segura comenzando con __consumer_offsets.

      Para obtener más información sobre KafkaT, consulte su repositorio de GitHub.

      Paso 7: Configuración de un clúster multinodo (opcional)

      Si desea crear un clúster multibroker usando más máquinas Ubuntu 18.04, debe repetir los pasos 1, 4 y 5 en cada una de los nuevas máquinas. Además, debe realizar los siguientes cambios en el archivo server.properties para cada una:

      • El valor de la propiedad broker.id debe cambiarse de modo que sea único en todo el clúster. Esta propiedad identifica de forma única cada servidor en el clúster y puede tener cualquier cadena como valor. Por ejemplo, “server1”, “server2”, etc.

      • El valor de la propiedad de zookeeper.connect debe cambiarse de forma que todos los nodos apunten a la misma instancia de ZooKeeper. Esta propiedad especifica la dirección de la instancia de Zookeeper y sigue formato :<PORT>. Por ejemplo, "203.0.113.0:2181", "203.0.113.1:2181", etc.

      Si desea tener varias instancias de ZooKeeper para su clúster, el valor de la propiedad zookeeper.connect de cada nodo debe ser una cadena idéntica y separada por comas que enumere las direcciones IP y los números de puerto de todas las instancias de ZooKeeper.

      Paso 8: Restricción del usuario de Kafka

      Ahora que todas las instalaciones están listas, puede eliminar los privilegios de administración del usuario kafka. Antes de hacerlo, cierre sesión y vuelva a iniciarla como cualquier otro usuario sudo no root. Si aún ejecuta la misma sesión de shell con la que inició este tutorial , simplemente escriba exit.

      Elimine el usuario kafka del grupo sudo:

      Para mejorar aún más la seguridad de su servidor, bloquee la contraseña del usuario kafka usando el comando passwd. Esto garantiza que nadie pueda iniciar sesión directamente en el servidor usando esta cuenta:

      En este momento, solo un usuario root o sudo puede iniciar sesión como kafka escribiendo el siguiente comando:

      Si desea desbloquearlo posteriormente, utilice passwd con la opción -u:

      De esta manera, ha restringido con éxito los privilegios de administrador del usuario kafka.

      Conclusión

      Con esto, ha logrado hacer funcionar Apache Kafka de forma segura en su servidor Ubuntu. Puede usarlo en sus proyectos creando productores y consumidores de Kafka usando clientes de Kafka, que están disponibles para la mayoría de los lenguajes de programación. Para obtener más información sobre Kafka, también puede consultar la documentación sobre este.



      Source link

      Cómo instalar y configurar una pila LEMP usando Software Collections en CentOS 7


      El autor seleccionó la Apache Software Foundation para recibir una donación de $100 como parte del programa Write for DOnations.

      Introducción

      Una pila de software LEMP es un grupo de software de código abierto que se instala normalmente en conjunto para permitir que un servidor hospede sitios web dinámicos y aplicaciones web. Este término es realmente un acrónimo que representa el sistema operativo de Linux y el servidor web de ENginx (que sustituye al componente Apache de una pila LAMP). Los datos del sitio se almacenan en una base de datos de MySQL (utilizando MariaDB) y el contenido dinámico se procesa mediante PHP.

      Los componentes de pilas LEMP a veces se instalan usando el repositorio de EPEL de CentOS 7. Sin embargo, este repositorio contiene paquetes obsoletos. Por ejemplo, no puede instalar ninguna versión de PHP superior a la 5.4.16 desde EPEL, aunque no exista soporte para esta versión desde hace mucho tiempo. Para obtener las versiones más recientes del software, se recomienda que utilice Software Collections, también conocido como “SCLs”. Las SCL son recopilaciones de recursos para desarrolladores proporcionadas por RedHat que le permiten usar varias versiones de software en el mismo sistema sin afectar paquetes previamente instalados.

      En esta guía, instalará una pila LEMP en un servidor de CentOS 7. El sistema operativo CentOS se ocupa del componente Linux. Instalará el resto de los componentes usando el repositorio de Software Collections y luego podrá configurarlos para una página web simple.

      Requisitos previos

      Antes de iniciar este tutorial, debe configurar el servidor de CentOS 7 siguiendo la guía de configuración inicial del servidor de CentOS 7 e incluir un usuario sudo no root.

      Paso 1: Habilitación del repositorio de Software Collections

      Si desea obtener acceso a SCLs para CentOS, instale el archivo de versión de Linux Software Collections de CentOS:

      • sudo yum install centos-release-scl

      Consulte la lista de paquetes SCL disponibles usando el siguiente comando:

      • yum --disablerepo='*' --enablerepo='centos-sclo-rh' --enablerepo='centos-sclo-sclo' list available

      Para evitar conflictos en todo el sistema, los paquetes SCL se instalan en el directorio /opt/rh. Esto le permite, por ejemplo, instalar Python 3.5 en una máquina con CentOS 7 sin eliminar Python 2.7 ni interferir con su funcionamiento.

      Todos los archivos de configuración para paquetes de SCLs se almacenan en el directorio correspondiente dentro del directorio /etc/opt/rh/. Los paquetes de SCLs proporcionan scripts de shell que definen las variables de entorno necesarias para usar las aplicaciones incluidas. Por ejemplo, PATH, LD_LIBRARY_PATH y MANPATH. Estos scripts se almacenan en el sistema de archivos como /opt/rh/nombre del paquete/enable.

      Con esto, estará listo para comenzar a instalar los paquetes indicados en esta guía.

      Paso 2: Instalación del servidor web Nginx

      Para mostrar páginas web a los visitantes vamos a emplear Nginx, un servidor web moderno y eficiente.

      Instale Nginx usando el siguiente comando yum. Asegúrese de sustituir el valor resaltado por la versión de Nginx que desee instalar; el número más alto en el nombre del paquete corresponderá a la versión más reciente (112 en el momento en que se redactó este artículo):

      • sudo yum install rh-nginx112

      Una vez terminada la instalación, inicie el servicio Nginx:

      • sudo systemctl start rh-nginx112-nginx

      Confirme que Nginx esté en ejecución ingresando el comando systemctl status:

      • sudo systemctl status rh-nginx112-nginx

      Output

      ● rh-nginx112-nginx.service - The nginx HTTP and reverse proxy server Loaded: loaded (/usr/lib/systemd/system/rh-nginx112-nginx.service; disabled; vendor preset: disabled) Active: active (running) since Fri 2018-03-19 15:15:43 UTC; 1min 17s ago Main PID: 10556 (nginx) CGroup: /system.slice/rh-nginx112-nginx.service ├─10556 nginx: master process /opt/rh/rh-nginx112/root/usr/sbin/nginx ├─10557 nginx: worker process └─10558 nginx: worker process Mar 19 15:15:43 lemp-centos-222 systemd[1]: Starting The nginx HTTP and reverse proxy server... Mar 19 15:15:43 lemp-centos-222 nginx-scl-helper[10541]: nginx: the configuration file /etc/opt/rh/rh-nginx... ok Mar 19 15:15:43 lemp-centos-222 nginx-scl-helper[10541]: nginx: configuration file /etc/opt/rh/rh-nginx112/...ful Mar 19 15:15:43 lemp-centos-222 systemd[1]: Started The nginx HTTP and reverse proxy server. Hint: Some lines were ellipsized, use -l to show in full.

      En este momento, su servidor podría estar expuesto a accesos por parte de usuarios no autorizados. Para corregir esto, configure un firewall usando firewalld. Quizá necesite instalar primero firewalld. Puede hacerlo con el siguiente comando:

      • sudo yum install firewalld

      Luego, inicie el servicio firewalld:

      • sudo systemctl start firewalld

      A continuación, añada algunas reglas de firewall para permitir el acceso de SSH a su servidor y conexiones HTTP y HTTPS con Nginx:

      • sudo firewall-cmd --permanent --add-service=ssh
      • sudo firewall-cmd --zone=public --permanent --add-service=http
      • sudo firewall-cmd --zone=public --permanent --add-service=https

      Vuelva a cargar firewalld para implementar las nuevas reglas de firewall:

      • sudo firewall-cmd --reload

      Encontrará más información sobre firewalld en la sección Cómo configurar un firewall usando FirewallD en CentOS 7.

      Una vez agregadas estas nuevas reglas, podrá probar si el servidor se encuentra en ejecución accediendo al nombre de dominio o a la dirección IP pública de su servidor en su navegador web.

      Si no tiene un nombre de dominio para su servidor y no conoce la dirección IP pública de este, puede encontrarla escribiendo lo siguiente en su terminal:

      Escriba la dirección IP resultante en la barra de dirección de su navegador web. Con esto, deberá poder ver la página de inicio predeterminada de Nginx:

      http://server_domain_or_IP
      

      Página predeterminada de Nginx

      Si ve esta página, significa que instaló Nginx correctamente. Antes de continuar, habilite Nginx para que comience a funcionar en el inicio usando el siguiente comando:

      • sudo systemctl enable rh-nginx112-nginx

      El servidor Nginx ya está instalado. Ahora puede proceder a instalar el software de base de datos MariaDB.

      Paso 3: Instalación de MariaDB para gestionar datos de sitios

      Ahora que contamos con un servidor web, es el momento de instalar MariaDB, un reemplazo a medida de MySQL, para almacenar y administrar los datos de su sitio.

      Instale MariaDB con el comando que se muestra a continuación. Una vez más, reemplace el valor señalado por el número de versión que desee instalar; el número más alto corresponde a la versión más reciente disponible (102, en el momento en que se redactó este artículo):

      • sudo yum install rh-mariadb102

      Una vez que se complete la instalación, inicie el servicio MariaDB con el siguiente comando:

      • sudo systemctl start rh-mariadb102-mariadb

      Con esto, MariaDB quedará instalado y en funcionamiento. No obstante, faltará completar su configuración.

      Para proteger la instalación, MariaDB incorpora un script de seguridad que solicita modificar algunos ajustes no seguros predeterminados. Ejecute el script escribiendo lo siguiente:

      • source /opt/rh/rh-mariadb102/enable
      • mysql_secure_installation

      El mensaje solicitará su contraseña root actual. Puesto que acaba de instalar MySQL, es probable que no disponga de una. Podrá dejar el campo en blanco presionando ENTER. Luego se le preguntará si desea configurar una contraseña root. Introduzca Y y siga las instrucciones:

      . . .
      Enter current password for root (enter for none):
      OK, successfully used password, moving on...
      
      Setting the root password ensures that nobody can log into the MariaDB
      root user without the proper authorization.
      
      Set root password? [Y/n] Y
      New password: password
      Re-enter new password: password
      Password updated successfully!
      Reloading privilege tables..
       ... Success!
      . . .
      

      Para el resto de las preguntas, presione la tecla ENTER en cada mensaje para aceptar los valores predeterminados. Con esto, se eliminarán algunos usuarios anónimos y la base de datos de prueba, se deshabilitarán las credenciales de inicio de sesión remoto de root y se cargarán estas nuevas reglas para que MariaDB aplique de inmediato los cambios que realizamos.

      Lo último que se debe hacer aquí es habilitar MariaDB para que se ejecute en el inicio. Utilice el siguiente comando para hacerlo:

      • sudo systemctl enable rh-mariadb102-mariadb

      En este punto, su sistema de base de datos estará configurado y podrá proceder a configurar PHP en su servidor.

      Paso 4: Instalación y configuración de PHP para procesamiento

      Ya tiene instalados Nginx para sus páginas y MariaDB para el almacenamiento y la administración de sus datos. Sin embargo, aún le falta instalar una herramienta que pueda generar contenido dinámico. Es el momento de PHP.

      Dado que Nginx no contiene procesamiento PHP nativo como otros servidores web, deberá instalar php-fpm, que significa “administrador de proceso de fastCGI”. Más adelante, configurará Nginx para que transmita solicitudes PHP a este software para su procesamiento.

      Instale este módulo y también use un paquete helper que permitirá la comunicación de PHP con el backend de su base de datos. La instalación extraerá los archivos principales de PHP necesarios. Podrá ejecutarla escribiendo lo siguiente:

      • sudo yum install rh-php71-php-fpm rh-php71-php-mysqlnd

      De esta manera, sus componentes PHP quedarán instalados. Sin embargo, existe un ligero cambio de configuración que debería realizar para reforzar la seguridad de su configuración.

      Abra el archivo de configuración de php.ini principal con privilegios root:

      • sudo vi /etc/opt/rh/rh-php71/php.ini

      En este archivo, busque el parámetro que configura cgi.fix_pathinfo. Este se comentará con un punto y coma (;) y se fijará en “1” por defecto.

      Este ajuste es extremadamente inseguro porque indica a PHP que intente ejecutar el archivo más cercano que pueda encontrar si no se puede hallar el archivo PHP solicitado. Básicamente, esto permitiría a los usuarios realizar solicitudes PHP de una forma que haría posible la ejecución scripts que no deberían poder ejecutar.

      Cambie ambas condiciones eliminando los comentarios de la línea y fijando su valor en “0”, como se muestra aquí:

      71/php.ini’>/etc/opt/rh/rh-php71/php.ini

      cgi.fix_pathinfo=0
      

      Guarde y cierre el archivo cuando termine (presione ESC, ingrese :wq y luego presione Enter).

      A continuación, abra el archivo de configuración de php-fpm www.conf:

      • sudo vi /etc/opt/rh/rh-php71/php-fpm.d/www.conf

      Por defecto, este archivo está configurado para usarse con el servidor Apache. Dado que su servidor tiene Nginx instalado, encuentre las líneas que configuran user y group y cambie sus valores de “apache” a “nginx”:

      71/php-fpm.d/www.conf’>/etc/opt/rh/rh-php71/php-fpm.d/www.conf

      user = nginx
      group = nginx
      

      Luego, guarde y cierre el archivo.

      A continuación, inicie su procesador PHP escribiendo lo siguiente:

      • sudo systemctl start rh-php71-php-fpm

      Luego habilite php-fpm para que se ejecute en el inicio:

      • sudo systemctl enable rh-php71-php-fpm

      Con esto, PHP quedará correctamente instalado en su servidor. Sin embargo, deberá configurarlo para complementarse con el otro software que instaló, de modo que su servidor funcione correctamente con el contenido de su sitio.

      Paso 5: Configuración de Nginx para usar el procesador PHP

      En este punto, ya tendrá instalados todos los componentes requeridos de una pila LEMP. En el nivel de la configuración, el único cambio que aún debe hacer es indicarle a Nginx que utilice su procesador PHP para contenido dinámico.

      Este cambio de configuración se realiza en el nivel de bloque del servidor (los bloques de servidor son similares a los hosts virtuales de Apache). Abra el archivo predeterminado de configuración de bloques del servidor Nginx escribiendo lo siguiente:

      • sudo vi /etc/opt/rh/rh-nginx112/nginx/nginx.conf

      Elimine los comentarios del bloque de ubicación ~ .php$ (el segmento del archivo que se ocupa de las solicitudes PHP, que se encuentra dentro del bloque del server) y su contenido borrando los símbolos de numeral (#) del principio de cada línea. También debe actualizar la opción fastcgi_param a SCRIPT FILENAME $document_root$fastcgi_script_name. Esto informa a PHP sobre la ubicación de la raíz del documento donde puede encontrar archivos para procesar.

      Una vez realizados los cambios necesarios, el bloque del server tendrá este aspecto:

      /etc/nginx/sites-available/default

      ...
      server {
          listen       80 default_server;
          listen       [::]:80 default_server;
          server_name  _;
          root         /opt/rh/rh-nginx112/root/usr/share/nginx/html;
      
          # Load configuration files for the default server block.
          include      /etc/opt/rh/rh-nginx112/nginx/default.d/*.conf;
      
          location / {
          }
      
          error_page 404 /404.html;
          location = /40x.html {
          }
      
          error_page 500 502 503 504  /50x.html;
          location = /50x.html {
          }
      
          # proxy the PHP scripts to Apache listening on 127.0.0.1:80
          #
          #location ~ .php$ {
          #    proxy_pass   http://127.0.0.1;
          #}
      
          # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
          #
          location ~ .php$ {
              root           html;
              fastcgi_pass   127.0.0.1:9000;
              fastcgi_index  index.php;
              fastcgi_param  SCRIPT_FILENAME $document_root$fastcgi_script_name;
              include        fastcgi_params;
          }
      
          # deny access to .htaccess files, if Apache's document root
          # concurs with nginx's one
          #
          #location ~ /.ht {
          #    deny  all;
          #}
      }
      ...
      

      Cuando realice los cambios, podrá guardar el archivo y salir del editor.

      A continuación, pruebe someta a prueba su archivo de configuración en busca de errores de sintaxis ejecutando los siguientes comandos:

      • source /opt/rh/rh-nginx112/enable
      • sudo nginx -t

      Si se notifica algún error, vuelva a revisar su archivo antes de continuar.

      Una vez que su archivo de configuración sea válido, vuelva a cargar Nginx para implementar los cambios que realizó:

      • sudo systemctl reload rh-nginx112-nginx

      Ahora que Nginx, PHP y MariaDB se han instalado y configurado, solo queda confirmar que la configuración de pila LEMP pueda facilitar correctamente el contenido a los visitantes de su sitio.

      Paso 6: Creación de un archivo PHP para probar la configuración

      Su pila LEMP ahora está completamente configurada y puede probarla para validar que Nginx pueda proporcionar archivos .php a su procesador PHP correctamente. Esto se realiza creando un archivo PHP de prueba en la raíz de nuestro documento.

      Abra un nuevo archivo llamado info.php dentro de la raíz del documento:

      • sudo vi /opt/rh/rh-nginx112/root/usr/share/nginx/html/info.php

      Añada al archivo la línea que se muestra a continuación. En ella se incluye código PHP válido que mostrará información sobre su servidor:

      112/root/usr/share/nginx/html/info.php’>/opt/rh/rh-nginx112/root/usr/share/nginx/html/info.php

      <?php phpinfo(); ?>
      

      Cuando termine, guarde y cierre el archivo. Luego, visite esta página en su navegador web usando el nombre de dominio o la dirección IP pública de su servidor seguidos de /info.php:

      http://server_domain_or_IP/info.php
      

      Verá una página web generada por PHP con información sobre su servidor:

      Información de página de PHP

      Si ve una página con este aspecto, significa que habrá configurado el procesamiento de PHP con Nginx de forma satisfactoria.

      Tras verificar que Nginx represente la página de forma correcta, la mejor opción será eliminar el archivo que creó porque puede dar indicios sobre su configuración que podrían ser útiles para que usuarios no autorizados intenten ingresar. Siempre puede regenerar este archivo si lo necesita más adelante.

      Elimine el archivo escribiendo lo siguiente:

      • sudo rm /opt/rh/rh-nginx112/root/usr/share/nginx/html/info.php

      Con esto, confirmará que todos los componentes de la pila LEMP se instalaron y configuraron correctamente en su servidor.

      Conclusión

      Ahora contará con una pila LEMP totalmente segura en su servidor CentOS 7. Esto le proporcionará una base muy flexible para proporcionar contenido web a sus visitantes.

      Las SCLs también se utilizan para instalar varias versiones de software y alternar entre ellas. Puede ver la lista de todas las colecciones instaladas en el sistema ejecutando lo siguiente:

      Si le interesa, podrá encontrar más información sobre Software Collections en el sitio oficial.



      Source link

      Cómo instalar Go en Ubuntu 18.04


      Introducción

      Go es un lenguaje de programación moderno desarrollado en Google. Es cada vez más popular para muchas aplicaciones y en muchas empresas, y ofrece un conjunto sólido de bibliotecas. Este tutorial le servirá como guía para descargar e instalar la versión más reciente de Go (Go 1.10 en el momento en que se publicó el presente artículo), y para compilar una aplicación Hello World sencilla.

      Requisitos previos

      En este tutorial se supone que tiene acceso a un sistema Ubuntu 18.04 configurado con un usuario no root con privilegios sudo, según lo descrito en Configuración inicial para servidores de Ubuntu 18.04.

      Paso 1: Instalar Go

      En este paso, instalaremos Go en su servidor.

      Para comenzar, conecte su servidor de Ubuntu a través de ssh:

      Para instalar Go, deberá utilizar la versión más reciente de la página oficial de descargas de Go. En el sitio, puede encontrar la URL del tarball de la versión binaria actual, junto con su hash de SHA256.

      Visite la página oficial de descargas de Go y encuentre la URL para el tarball de la versión binaria actual junto con su hash de SHA256. Asegúrese de posicionarse en su directorio de inicio y utilizar curl para recuperar el tarball:

      • cd ~
      • curl -O https://dl.google.com/go/go1.10.3.linux-amd64.tar.gz

      A continuación, puede usar sha256sum para verificar el tarball:

      • sha256sum go1.10.3.linux-amd64.tar.gz

      Sample Output

      go1.10.3.linux-amd64.tar.gz fa1b0e45d3b647c252f51f5e1204aba049cde4af177ef9f2181f43004f901035 go1.10.3.linux-amd64.tar.gz

      Obtendrá un hash como el señalado en el resultado anterior. Asegúrese de que coincida con el de la página de descargas.

      A continuación, utilice tar para extraer el tarball. El indicador x solicita a tar que realice la extracción, v señala que deseamos un resultado de verbose (un listado de los archivos extraídos) y f le notifica que especificaremos un nombre de archivo:

      • tar xvf go1.10.3.linux-amd64.tar.gz

      Con esto, debería disponer de un directorio llamado go en su directorio de inicio. Cambie de forma recursiva ****el propietario y el grupo de go al root y trasládelo a /usr/local:

      • sudo chown -R root:root ./go
      • sudo mv go /usr/local

      Nota: Aunque /usr/local/go es la ubicación que se recomienda oficialmente, algunos usuarios pueden preferir o requerir diferentes rutas.

      Paso 2: Configurar rutas de Go

      En este paso, configuraremos algunas rutas en su entorno.

      Primero, configure el valor root de Go, que indica a este último dónde buscar sus archivos.

      Al final del archivo, agregue esta línea:

      export GOPATH=$HOME/work
      export PATH=$PATH:/usr/local/go/bin:$GOPATH/bin
      

      Si eligió una ubicación de instalación alternativa para Go, agregue en su lugar estas líneas al mismo archivo. En este ejemplo, se muestran los comandos para el caso en que Go se instale en su directorio de inicio:

      export GOROOT=$HOME/go
      export GOPATH=$HOME/work
      export PATH=$PATH:$GOROOT/bin:$GOPATH/bin
      

      Una vez pegada en su perfil la línea correspondiente, guarde y cierre el archivo. A continuación, actualice su perfil ejecutando lo siguiente:

      Paso 3: Probar su instalación

      Ahora que Go está instalado y las rutas están configuradas para su servidor, puede comprobar que Go esté funcionando como se espera.

      Cree un nuevo directorio para su espacio de trabajo de Go, que es donde Go crea sus archivos:

      Luego, cree una jerarquía de directorio en esta carpeta a través de este comando para crear su archivo de prueba. Puede sustituir el valor user por su nombre de usuario de GitHub si planea utilizar Git para confirmar y almacenar su código de Go en GitHub. Si no planea utilizar GitHub para almacenar y administrar su código, su estructura de carpetas podría ser diferente; por ejemplo, ~/my_project.

      • mkdir -p work/src/github.com/user/hello

      A continuación, puede crear un archivo “Hello World” simple.

      • nano ~/work/src/github.com/user/hello/hello.go

      Dentro de su editor, pegue el código que se muestra a continuación. Este utiliza los paquetes principales de Go, importa el componente de contenido de E/S con formato y establece una nueva función para presentar “Hello, World” al ejecutarse.

      package main
      
      import "fmt"
      
      func main() {
          fmt.Printf("hello, worldn")
      }
      

      Este programa presentará “hello, world” si se ejecuta con éxito, lo cual indicará que los programas de Go se compilan de forma correcta. Guarde y cierre el archivo y, luego, proceda a compilarlo invocando el comando install de Go:

      • go install github.com/user/hello

      Una vez compilado el archivo compilado, podrá ejecutarlo simplemente a través del comando:

      Si con el comando se muestra la frase “hello, world”, significa que Go se instaló correctamente y funciona. Puede ver dónde se instala el binario hello compilado utilizando el comando which:

      Output

      /home/user/work/bin/hello

      Conclusión

      Al descargar el paquete más reciente de Go, instalarlo y configurar de sus rutas dispondrá de un sistema que podrá utilizar para el desarrollo con Go. Puede encontrar algunos artículos adicionales sobre la instalación y el uso de Go, además de suscribirse para recibirlos, dentro de nuestra etiqueta “Go”.



      Source link