One place for hosting & domains

      Modern Game Server Infrastructure in the Cloud

      How to Join

      This Tech Talk is free and open to everyone. Register for your preferred time to get a link to join the live event.

      Time zones Date RSVP
      Americas & EMEA Thursday, August 6, 2020 1:00 p.m.–2:00 p.m. ET
      Asia Pacific Friday, August 7, 2020, 12:00 p.m.–1:00 p.m. IST

      If you can’t join us live, the video recording will be published here as soon as it’s available.

      About the Talk

      Building large-scale infrastructure for a multiplayer game is not an easy feat. Game servers are stateful applications with long-lived connections to its clients, the opposite of what modern highly scalable server applications tend to be, so most of the tools and techniques used for deploying and maintaining these services on the cloud are not useful.

      Diego Rocha, Software Engineering Manager at Playkids, will discuss how a small team at PlayKids, an educational games platform, leveraged DigitalOcean, Kubernetes, and Agones to build PlayKids’ infrastructure to reliably serve millions of players. The presented solution enables multi-data center deployments and game server updates without disrupting game sessions, all at a low cost and requiring almost no maintenance.

      What You’ll Learn

      • How to deploy and scale large-scale game servers in the cloud to boost development productivity, reduce maintenance, and improve your game’s quality and resilience.
      • How to decrease the high cost of network-intensive multiplayer games through infrastructure optimization using DigitalOcean.

      This Talk is Designed For

      • Multiplayer game developers on small teams
      • Backend developers interested in scalability
      • Anyone who wants to learn how to host applications that are stateful, network-intensive, and/or have sticky connections.


      • Basic understanding of the value and difficulties of deploying large-scale game servers.
      • Moderate familiarity with cloud technologies.

      About the Presenters

      Diego Rocha leads a team of backend engineers at PlayKids. Although he considers himself a generalist, he’s been building critical large-scale distributed systems for more than 7 years. As a computer scientist, he thrives in applying theory and research to build solutions that are both elegant and efficient.

      Fabian Barajas joined DigitalOcean in 2015 as a Customer Success Engineer and became a Solutions Engineer in early 2017. He is an LPIC-1 and SUSE Certified Linux Administrator, and holds a number of certifications, including ComTIA Linux+ and A+.

      Diego and Fabian will be answering questions live during both sessions.

      To join the live Tech Talk, register here for the session of your choice.

      Source link

      Dedicated Private Cloud vs. Virtual Private Cloud: What’s the Difference?

      What is the difference between a dedicated private cloud and a virtual private cloud? As solutions architects, this is a question my teammates and I hear often. Simply put:

      • Dedicated Private Cloud (DPC) is defined as physically isolated, single-tenant collection of compute, network and sometimes storage resources exclusively provisioned to just one organization or application.
      • Virtual Private Cloud (VPC) is defined as a multi-tenant but virtually isolated, collection of compute, network and storage resources.

      A simple analogy comparing the two would be choosing between a single-family private home (DPC) versus a condo building (VPC).

      Despite the differences, both dedicated and virtual private clouds offer secure environments with flexible management options, which allow you to concentrate on your core business instead of struggling to keep up with daily infrastructure monitoring and maintenance.

      Let’s discuss each cloud product in greater depth and review use cases for dedicated vs. virtual private clouds. I’ll use INAP’s dedicated private cloud (DPC) and virtual private cloud (VPC) products as examples for the DPC and VPC differentiators.

      Dedicated Private Cloud (DPC)

      DPCs are scalable, isolated computing environments that are tailored to fit unique requirements and rightsized for any of workload or application. DPCs are ideal for mission-critical or legacy applications. When applications can’t be easily refactored for the cloud, a DPC can be a viable solution.  DPC is also ideal for organizations seeking to reduce time spent maintaining infrastructure. You do not need to sacrifice control, compliance or performance with a DPC. INAP DPCs are built with trusted enterprise-class technologies powered by VMware or Hyper-V.

      DPC use cases:

      • Compliance and audit requirements, such as PCI or HIPAA
      • Stringent security requirements
      • Large scale applications with rigorous performance and/or data storage requirements
      • Legacy applications, which may require hardware keys or specific software licensing components
      • Data center migration — scale physical compute, network and storage capacity as needed without significant investments in data center build outs
      • Complex network requirements, which may include MPLS, SDWAN, private layer 2 connections to customers, vendors or partners
      • Fully-integrated active or hot-standby disaster recovery environments
      • Infrastructure Management Services, all the way to the operating system
      • High CPU/GPU/RAM requirements
      • AI environments
      • Big Data
      • Always on applications that are not a fit for hyper-scale providers

      INAP’s DPC differentiators:

      • Designed and “right-sized” to fit your application, economics and compliance requirements
      • Built with enterprise-class technologies and powered by VMware or Hyper-V.
      • Utilize 100 percent isolated compute and highly secure, single-tenant environments perfect for PCI or HIPAA compliance.
      • Flexible compute and data storage options which allow you meet any application performance and growth requirements.
      • OS Managed services free up time from routine tasks of patching
      • Transparency into the core infrastructure technology allows you complete visibility in the inter-workings of the environment.
      • No restrictions on sizing of the VMs or application workloads because the infrastructure is custom designed for your organization specific technology needs.
      • SDN switching for flexible, quick and easy network management or dedicated switching for complex network configurations to meet any network requirements.
      • MDR security services available, which include vulnerability scanning, IDS/IPS, log management with SOC (Security Operations Center)
      • Off-site cloud backups and fully integrated and managed DRaaS available.

      Virtual Private Cloud (VPC)

      VPCs are ideal for applications with variable resource requirements and organizations seeking to reduce time spent maintaining infrastructure without sacrificing control of your virtual machines, compliance, and elasticity. They provide a customized landscape of users, groups, computing resources and a virtual network that you define. Different organizations or users of VPC resources do not have access to the underlying hypervisor for customization or monitoring plugin installation.

      VPCs are pre-designed for smaller to medium workloads and provide management and monitoring tools. They allow for very fast application deployment because the highly available compute, security, storage and hypervisors are already deployed and ready for your workload.

      VPC use cases:

      • Small to medium sized workloads with 10 to 25 VMs and simple network requirements
      • Applications with lower RAM requirements
      • Ideal for additional capacity needed for projects. Deploy in hours—not days.
      • Quickly spin up unlimited Virtual Machines (VMs) per host to support new projects or peak business cycle’s ability to quickly add resources on demand

      INAP’s VPC differentiators:

      • Designed for fast deployments enabling you to eliminate lengthy sourcing and procurement timelines
      • Shield Managed Security services included
        • 24/7 physical security in SSAE 16/SOC 2 certified Data Centers
        • Private networks & segmentation
        • Account security for secure portal access
        • DDoS protection & Mitigation
      • OS Managed services free up time from routine tasks of patching
      • Easy to use interface simplifies management and reduces operational expense of training IT staff
      • Off-site Cloud Backups and Fully integrated On-Demand (Paygo) DRaaS available
      • MDR security services available, which include vulnerability scanning, IDS/IPS, log management with SOC (Security Operations Center)

      Next Steps

      Do you know which private cloud model will work with your company’s workload and applications? Whether you’re certain that a DPC or VPC will be a good fit or you’re still unsure, INAP’s experts can help take your cloud infrastructure to the next level. Chat today to talk all things private cloud.

      Explore INAP Private Cloud.


      Rob Lerner


      Source link

      Comment mettre en place la plate-forme cloud IDE de code-server sur Ubuntu 20.04

      L’auteur a choisi le Free and Open Source Fund pour recevoir un don dans le cadre du programme Write for Donations.


      Avec la migration des outils de développement vers le cloud, la création et l’adoption de plateformes cloud IDE (Integrated Development Environment) se développent. Les plateformes cloud IDE permettent une collaboration en temps réel entre les équipes de développeurs pour travailler dans un environnement de développement unifié qui minimise les incompatibilités et améliore la productivité. Accessibles via les navigateurs web, les plateformes cloud IDE sont disponibles à partir de tout type d’appareil moderne.

      code-server est un code Microsoft Visual Studio fonctionnant sur un serveur distant et accessible directement depuis votre navigateur. Visual Studio Code est un éditeur de code moderne avec un support Git intégré, un débogueur de code, une autocomplétion intelligente et des fonctionnalités personnalisables et extensibles. Cela signifie que vous pouvez utiliser divers appareils fonctionnant avec différents systèmes d’exploitation, et que vous disposez toujours d’un environnement de développement cohérent.

      Dans ce tutoriel, vous allez installer la plateforme IDE du serveur cloud sur votre machine Ubuntu 20.04 et l’exposer à votre domaine, sécurisé par des certificats Let’s Encrypt TLS gratuits. Au final, vous disposerez du code Microsoft Visual Studio sur votre serveur Ubuntu 20.04, disponible dans votre domaine et protégé par un mot de passe.

      Conditions préalables

      • Un serveur fonctionnant sous Ubuntu 20.04 avec au moins 2 Go de RAM, un accès root, et un compte sudo, non root. Vous pouvez le configurer en suivant ce guide de configuration initiale du serveur.

      • Nginx installé sur votre serveur. Pour vous guider, suivez les étapes 1 à 4 du guide Comment installer Nginx sur Ubuntu 20.04.

      • Un nom de domaine entièrement enregistré pour héberger code-server, pointé vers votre serveur. Ce tutoriel utilisera code-server.your-domain tout au long du cours. Vous pouvez acheter un nom de domaine sur Namecheap, en obtenir un gratuitement sur Freenom, ou utiliser le bureau d’enregistrement de domaine de votre choix. Pour DigitalOcean, vous pouvez suivre cette introduction à DigitalOcean DNS pour savoir comment les ajouter.

      Étape 1 – Installez code-server

      Dans cette section, vous allez configurer code-server sur votre serveur. Cela implique le téléchargement de la dernière version et la création d’un service systemd qui maintiendra code-server toujours en fonctionnement en arrière-plan. Vous préciserez également une politique de redémarrage du service, afin que code-server reste disponible après d’éventuels crashs ou redémarrages.

      Vous stockerez toutes les données relatives à code-server dans un dossier nommé ~/code-server. Créez-le en exécutant la commande suivante :

      Naviguez jusqu’à lui :

      Vous devrez vous rendre à la page des versions de Github relatives à code-server et choisir la dernière version de Linux (le fichier contiendra « linux » dans son nom). Au moment de la rédaction de ces lignes, la dernière version était 3.3.1. Téléchargez-le en utilisant wget, en exécutant la commande suivante :

      • wget

      Ensuite, déballez les archives en exécutant :

      • tar -xzvf code-server-3.3.1-linux-amd64.tar.gz

      Vous obtiendrez un dossier nommé exactement comme le fichier original que vous avez téléchargé, qui contient le code source de code-server. Copiez-le dans /usr/lib/code-server afin de pouvoir y accéder dans tout le système en exécutant la commande suivante :

      • sudo cp -r code-server-3.3.1-linux-amd64 /usr/lib/code-server

      Ensuite, créez un lien symbolique dans /usr/bin/code-server, pointant sur l’exécutable de code-server :

      • sudo ln -s /usr/lib/code-server/bin/code-server /usr/bin/code-server

      Ensuite, créez un dossier pour code-server, où seront stockées les données des utilisateurs :

      • sudo mkdir /var/lib/code-server

      Maintenant que vous avez téléchargé code-server et que vous l’avez rendu disponible dans tout le système, vous allez créer un service systemd pour que code-server fonctionne en arrière-plan à tout moment.

      Vous allez stocker la configuration du service dans un fichier nommé code-server.service, dans le répertoire /lib/systemd/system, où systemd stocke ses services. Créez-le avec votre éditeur de texte :

      • sudo nano /lib/systemd/system/code-server.service

      Ajoutez les lignes suivantes :


      ExecStart=/usr/bin/code-server --bind-addr --user-data-dir /var/lib/code-server --auth password

      Ici, vous devez d’abord préciser la description du service. Ensuite, vous indiquez que le service nginx doit être lancé avant celui-ci. Après la section [Unit], vous définissez le type de service (simple signifie que le processus doit être simplement exécuté) et fournissez la commande qui sera exécutée.

      Vous spécifiez également que l’exécutable du serveur de code global doit être lancé avec quelques arguments spécifiques au serveur de code. --bind-addr le lie à localhost sur le port 8080, il n’est donc directement accessible que depuis l’intérieur de votre serveur. --user-data-dir /var/lib/code-server définit son répertoire de données utilisateur, et --auth password spécifie qu’il doit authentifier les visiteurs avec un mot de passe, spécifié dans la variable d’environnement PASSWORD déclarée sur la ligne au-dessus. 

      N’oubliez pas de remplacer <^>your_password<^> avec le mot de passe de votre choix, puis enregistrez et fermez le fichier.

      La ligne suivante indique à systemd de redémarrer code-server dans tous les cas de dysfonctionnement (par exemple, lorsqu’il se bloque ou que le processus est interrompu). La section [Install] ordonne à systemd de démarrer ce service lorsqu’il devient possible de se connecter à votre serveur.

      Démarrez le service code-server en exécutant la commande suivante :

      • sudo systemctl start code-server

      Vérifiez qu’il est correctement démarré en observant son état :

      • sudo systemctl status code-server

      Vous verrez un résultat similaire à :


      ● code-server.service - code-server Loaded: loaded (/lib/systemd/system/code-server.service; disabled; vendor preset: enabled) Active: active (running) since Wed 2020-05-20 13:03:40 UTC; 12s ago Main PID: 14985 (node) Tasks: 18 (limit: 2345) Memory: 26.1M CGroup: /system.slice/code-server.service ├─14985 /usr/lib/code-server/bin/../lib/node /usr/lib/code-server/bin/.. --bind-addr --user-data-dir /var/lib/code-server --auth> └─15010 /usr/lib/code-server/lib/node /usr/lib/code-server --bind-addr --user-data-dir /var/lib/code-server --auth password May 20 13:03:40 code-server-update-2004 systemd[1]: Started code-server. May 20 13:03:40 code-server-update-2004 code-server[15010]: info Wrote default config file to ~/.config/code-server/config.yaml May 20 13:03:40 code-server-update-2004 code-server[15010]: info Using config file ~/.config/code-server/config.yaml May 20 13:03:40 code-server-update-2004 code-server[15010]: info Using user-data-dir /var/lib/code-server May 20 13:03:40 code-server-update-2004 code-server[15010]: info code-server 3.3.1 6f1309795e1cb930edba68cdc7c3dcaa01da0ab3 May 20 13:03:40 code-server-update-2004 code-server[15010]: info HTTP server listening on May 20 13:03:40 code-server-update-2004 code-server[15010]: info - Using password from $PASSWORD May 20 13:03:40 code-server-update-2004 code-server[15010]: info - To disable use `--auth none` May 20 13:03:40 code-server-update-2004 code-server[15010]: info - Not serving HTTPS

      Pour que code-server démarre automatiquement après un redémarrage du serveur, activez son service en exécutant la commande suivante :

      • sudo systemctl enable code-server

      Dans cette étape, vous avez téléchargé code-server et l’avez rendu disponible dans le monde entier. Ensuite, vous lui avez créé un service systemd et l’avez activé, de sorte que code-server démarre à chaque mise en marche du serveur. Maintenant, vous allez l’exposer à votre domaine en configurant Nginx pour servir de proxy inverse entre le visiteur et code-server.

      Étape 2 – Exposez code-server à votre domaine

      Dans cette section, vous allez configurer Nginx comme proxy inverse pour code server.

      Comme vous l’avez appris lors de l’étape préalable de Nginx, les fichiers de configuration de son site sont stockés sous /etc/nginx/sites-available et doivent ensuite être liés par un lien symbolique à /etc/nginx/sites-enabled pour devenir actifs.

      Vous allez stocker la configuration pour exposer code-server à votre domaine dans un fichier nommé code-server.conf, sous /etc/nginx/sites-available. Commencez par le créer à l’aide de votre éditeur :

      • sudo nano /etc/nginx/sites-available/code-server.conf

      Ajoutez les lignes suivantes :


      server {
          listen 80;
          listen [::]:80;
          server_name code-server.your-domain;
          location / {
            proxy_pass http://localhost:8080/;
            proxy_set_header Upgrade $http_upgrade;
            proxy_set_header Connection upgrade;
            proxy_set_header Accept-Encoding gzip;

      Remplacez code-server.your-domain par le domaine de votre choix, puis enregistrez et fermez le fichier.

      Dans ce fichier, vous définissez que Nginx doit écouter le port HTTP 80. Ensuite, vous spécifiez un server_name (nom de serveur) qui indique à Nginx pour quel domaine accepter les requêtes et appliquer cette configuration particulière. Dans le bloc suivant, pour l’emplacement racine (/), vous spécifiez que les requêtes doivent être transmises dans les deux sens au code-server fonctionnant à localhost:8080. Les trois lignes suivantes (commençant par proxy_set_header) ordonnent à Nginx de reporter certains en-têtes de requête HTTP qui sont nécessaires au bon fonctionnement des WebSockets, dont code-server fait un usage intensif.

      Pour rendre cette configuration de site active, vous devrez en créer un lien symbolique dans le dossier /etc/nginx/sites-enabled en exécutant :

      • sudo ln -s /etc/nginx/sites-available/code-server.conf /etc/nginx/sites-enabled/code-server.conf

      Pour tester la validité de la configuration, exécutez la commande suivante :

      Vous verrez la sortie suivante :


      nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful

      Pour que la configuration prenne effet, vous devez redémarrer Nginx :

      • sudo systemctl restart nginx

      Votre installation de code-server est désormais accessible à votre domaine. Dans l’étape suivante, vous le sécuriserez en appliquant un certificat Let’s Encrypt TLS gratuit.

      Étape 3 – Sécurisez votre domaine

      Dans cette section, vous sécuriserez votre domaine à l’aide d’un certificat TLS Let’s Encrypt, que vous fournirez en utilisant Certbot.

      Pour installer la dernière version de Certbot et son plugin Nginx, exécutez la commande suivante :

      • sudo apt install certbot python3-certbot-nginx

      Dans le cadre des conditions préalables, vous avez activé ufw (Uncomplicated Firewall) et l’avez configuré pour permettre le trafic HTTP non crypté. Pour pouvoir accéder au site sécurisé, vous devez le configurer de manière à ce qu’il accepte le trafic crypté en exécutant la commande suivante :

      Le résultat sera :


      Rule added Rule added (v6)

      Comme pour Nginx, vous devrez le recharger pour que la configuration prenne effet :

      Le résultat sera :


      Firewall reloaded

      Ensuite, dans votre navigateur, naviguez jusqu’au domaine que vous avez utilisé pour code-server. Vous verrez l’invite de connexion à code-server.

      invite de connexion à code-server

      code-server vous demande votre mot de passe. Saisissez celui que vous avez défini à l’étape précédente et appuyez sur Entrée IDE. Vous allez maintenant entrer dans code-server et voir immédiatement l’interface graphique de son éditeur.

      Interface graphique code-server

      Maintenant que vous avez vérifié que code-server était correctement exposé à votre domaine, vous allez installer des certificats TLS Let’s Encrypt pour le sécuriser, en utilisant Certbot.

      Si vous souhaitez demander des certificats pour votre domaine, exécutez la commande suivante :

      • sudo certbot --nginx -d code-server.your-domain

      Dans cette commande, vous lancez certbot dans le but de demander des certificats pour votre domaine – vous passez le nom de domaine avec le paramètre -d. Le drapeau --nginx lui indique de modifier automatiquement la configuration du site Nginx pour prendre en charge le HTTPS. N’oubliez pas de remplacer code-server.your-domain par votre nom de domaine.

      Si c’est la première fois que vous utilisez Certbot, il vous sera demandé de fournir une adresse électronique pour les avis urgents et d’accepter les conditions de service du FEP. Certbot demandera alors des certificats pour votre domaine à Let’s Encrypt. Il vous demandera ensuite si vous souhaitez rediriger tout le trafic HTTP vers le HTTPS :


      Please choose whether or not to redirect HTTP traffic to HTTPS, removing HTTP access. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 1: No redirect - Make no further changes to the webserver configuration. 2: Redirect - Make all requests redirect to secure HTTPS access. Choose this for new sites, or if you're confident your site works on HTTPS. You can undo this change by editing your web server's configuration. - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Select the appropriate number [1-2] then [enter] (press 'c' to cancel):

      Il est recommandé de choisir la deuxième option afin de maximiser la sécurité. Après avoir saisi votre sélection, appuyez sur ENTER.

      Le résultat sera similaire à celui-ci :


      IMPORTANT NOTES: - Congratulations! Your certificate and chain have been saved at: /etc/letsencrypt/live/code-server.your-domain/fullchain.pem Your key file has been saved at: /etc/letsencrypt/live/code-server.your-domain/privkey.pem Your cert will expire on ... To obtain a new or tweaked version of this certificate in the future, simply run certbot again with the "certonly" option. To non-interactively renew *all* of your certificates, run "certbot renew" - Your account credentials have been saved in your Certbot configuration directory at /etc/letsencrypt. You should make a secure backup of this folder now. This configuration directory will also contain certificates and private keys obtained by Certbot so making regular backups of this folder is ideal. - If you like Certbot, please consider supporting our work by: Donating to ISRG / Let's Encrypt: Donating to EFF:

      Cela signifie que Certbot a généré avec succès des certificats TLS et les a appliqués à la configuration Nginx de votre domaine. Vous pouvez maintenant recharger votre domaine de code-server dans votre navigateur et observer un cadenas à gauche de l’adresse du site, ce qui signifie que votre connexion est correctement sécurisée.

      Maintenant que code-server est accessible à votre domaine via un reverse proxy Nginx sécurisé, vous êtes prêt à revoir l’interface utilisateur de code-server.

      Étape 4 – Utilisez l’interface code-server

      Dans cette section, vous utiliserez certaines des fonctionnalités de l’interface code-server. Comme code-server est un code Visual Studio fonctionnant dans le cloud, il a la même interface que l’édition autonome de bureau.

      Sur le côté gauche de l’IDE, il y a une rangée verticale de six boutons qui ouvrent les fonctionnalités les plus utilisées dans un panneau latéral connu sous le nom de Barre d’activité.

      Interface utilisateur code-server- Panneau latéral

      Cette barre est personnalisable de sorte que vous pouvez modifier l’ordre de ces vues ou les retirer de la barre. Par défaut, le premier bouton ouvre le menu général dans une liste déroulante, tandis que la deuxième vue ouvre le panneau Explorer qui permet une navigation arborescente de la structure du projet. Vous pouvez gérer vos dossiers et fichiers ici – en les créant, les supprimant, les déplaçant et les renommant si nécessaire. La vue suivante donne accès à une fonctionnalité de recherche et de remplacement

      Vient ensuite, dans l’ordre par défaut, votre vision des systèmes de contrôle des sources, comme Git. Visual Studio Code prend également en charge d’autres fournisseurs de contrôle de source et vous trouverez dans cette documentation des instructions supplémentaires sur les flux de travail de contrôle de source avec l’éditeur.

      Volet Git avec context-menu (menu contextuel) ouvert

      L’option de débogueur de la Barre d’activité fournit toutes les actions communes de débogage dans le panneau. Visual Studio Code est livré avec un support intégré pour le débugueur d’exécution Node.js et tout langage qui se transpose en Javascript. Pour les autres langues, vous pouvez installer des extensions pour le debogueur requis. Vous pouvez enregistrer des configurations de débogage dans le fichier launch.json

      Debugger View avec launch.json ouvert

      La vue finale dans la barre d’activité fournit un menu pour accéder aux extensions disponibles sur le Marché.

      code-server GUI - Onglets

      La partie centrale de l’interface graphique est votre éditeur, que vous pouvez séparer en onglets pour éditer votre code. Vous pouvez modifier votre vue d’édition en un système de grille ou en fichiers côte à côte.

      Vue de l'éditeur sous forme de grille

      Après avoir créé un nouveau fichier via le menu Fichier, un fichier vide s’ouvrira dans un nouvel onglet, et une fois enregistré, le nom du fichier sera visible dans le panneau latéral de l’explorateur. La création de dossiers peut se faire en cliquant avec le bouton droit de la souris sur la barre latérale de l’Explorateur et en cliquant sur Nouveau dossier. Vous pouvez développer un dossier en cliquant sur son nom ainsi qu’en glissant et déposant des fichiers et des dossiers dans les parties supérieures de la hiérarchie afin de les déplacer vers un nouvel emplacement.

      Interface graphique code-server - Nouveau dossier

      Vous pouvez accéder à un terminal en tapant CTRL+SHIFT+` ou en cliquant sur Terminal dans le menu supérieur, et en sélectionnant Nouveau terminal. Le terminal s’ouvrira dans un panneau inférieur et son répertoire de travail sera défini sur l’espace de travail du projet, qui contient les fichiers et les dossiers affichés dans le panneau latéral de l’explorateur.

      Vous avez exploré un aperçu de haut niveau de l’interface code-server et examiné certaines des caractéristiques les plus couramment utilisées.


      Vous disposez maintenant de code-server, un IDE cloud polyvalent, installé sur votre serveur Ubuntu 20.04, exposé à votre domaine et sécurisé à l’aide de certificats Let’s Encrypt. Vous pouvez désormais travailler sur des projets individuellement, ainsi que dans un cadre de collaboration en équipe. L’utilisation d’un IDE cloud libère des ressources sur votre machine locale et vous permet d’augmenter les ressources en cas de besoin. Pour plus d’informations, consultez la documentation relative à Visual Studio Code pour accéder à des fonctionnalités supplémentaires et des instructions détaillées sur les autres composants de code-server.

      Si vous souhaitez utiliser code-server sur votre cluster Kubernetes de DigitalOcean , consultez notre tutoriel Comment mettre en place la plateforme cloud IDE code-server sur Kubernetes de DigitalOcean.

      Source link