Les emails professionnels, accessibles aux ex‑salariés ? Ce que dit l’arrêt du 18 juin 2025

Introduction

Un simple départ de salarié, autrefois réglé en quelques clics, devient aujourd’hui un casse-tête juridique. Depuis l’arrêt de la Cour de cassation du 18 juin 2025, les emails professionnels sont officiellement considérés comme des données personnelles. Conséquence : l’entreprise doit se conformer au RGPD, même après le départ d’un collaborateur. Et spoiler : non, on ne peut plus rediriger ses mails comme avant.

Arrêt du 18 juin 2025 : ce qu’il change

La Cour de cassation (arrêt n° 23-19.022) a jugé que les emails professionnels sont des données personnelles, désormais protégées par le RGPD. Cela inclut :

  • Le contenu des messages ;
  • Les métadonnées (date, heure, destinataire, etc.).

L’ex-salarié peut donc demander l’accès à sa messagerie même après son départ.

Comment cet accès doit-il se concrétiser ?
Les employeurs ont désormais l’obligation de répondre aux demandes d’accès sous un mois (voire trois en cas de complexité). Ils doivent fournir :

  • Le contenu des emails ;
  • Les métadonnées (horodatage, destinataires…) ;
    sauf si ces éléments portent atteinte aux droits d’un tiers (secret des affaires, vie privée…)

Jusqu’où peut-on aller ?
Le salarié n’a pas nécessairement le droit à la copie brute de l’email – un tableau synthétique peut suffire. Toutefois, en cas de refus complet, l’employeur s’expose à des sanctions financières via les prud’hommes ou la CNIL .

Impacts opérationnels pour les entreprises
Pour se conformer, l’entreprise doit :

  • Mettre en place une politique claire de rétention des emails,
  • Prévoir dès l’arrivée du salarié les modalités de conservation et restitution en cas de départ,
  • Documenter les traitements dans le registre RGPD,
  • Adopter des procédures efficaces d’extraction ou de synthèse des données.

Rediriger les mails vers un collègue : (presque) toujours interdit

Même dans le cadre du départ d’un collaborateur, tu ne peux pas rediriger ses mails vers un autre collègue sans encadrement strict. C’est une atteinte au secret des correspondances.

Ce qui est interdit :

  • Redirection automatique permanente vers un collègue ;
  • Réponse automatique qui se fait passer pour l’ex-salarié ;
  • Conservation d’un alias prenom.nom@... sans mention claire du départ.

Ce qui est autorisé :

  • Mise en place d’une réponse automatique claire mentionnant le départ ;
  • Redirection temporaire, max 1 mois, à condition que le salarié ait été informé avant son départ et que ce soit documenté dans le registre RGPD ;
  • Boîte fonctionnelle ou partagée sans nom de personne (support@...).

Comment gérer concrètement une départ dans M365 ?

  1. Bloquer l’accès au compte, sans supprimer la boîte (conservation des données) ;
  2. Interdire la redirection automatique vers un autre utilisateur ;
  3. Configurer une réponse automatique claire ;
  4. Appliquer une règle de rétention via Microsoft Purview ;
  5. Supprimer le compte une fois la période de rétention expirée, selon la politique interne.

Obligation d’accès à ses emails pour l’ex-salarié

Si un ex-collaborateur demande l’accès à ses mails, l’entreprise a 1 mois pour répondre (voire 3 en cas de complexité). Elle doit fournir :

  • Le contenu des emails ;
  • Les métadonnées associées.

⚠️ Mais : certaines données peuvent être occultées si elles concernent la vie privée d’autrui, le secret des affaires, etc.

En conclusion

Le départ d’un salarié doit être préparé comme une opération à part entière :

  • Sécurité des données,
  • Respect du RGPD,
  • Continuité du service,
  • Communication claire vers les clients.

En tant qu’admin ou DSI, tu dois avoir une procédure d’offboarding précise, documentée, conforme et humaine. La jurisprudence de 2025 ne laisse plus de place à l’improvisation.

👇 Et chez vous, comment vous gérez les départs ? Avez-vous adapté vos pratiques à la lumière du RGPD et des dernières décisions ? Partagez vos retours et n’hésitez pas à commenter !

📬 Pourquoi j’ai auto-hébergé mon serveur mail avec Mail-in-a-Box (et pourquoi tu devrais peut-être faire pareil)

T’en as marre que Google lise tes mails ? Marre des boîtes mail gratuites qui deviennent payantes dès que tu veux 1 Go de plus ? Tu veux reprendre le contrôle total de tes données ?

Alors laisse-moi te parler de Mail-in-a-Box, une solution open source qui transforme un serveur Ubuntu 22.04 LTS en véritable centrale postale auto-hébergée, sécurisée et clé en main.

C’est quoi au juste, Mail-in-a-Box ?

C’est un script magique qui configure pour toi un serveur mail complet, sécurisé et prêt à l’emploi. Tu le lances sur un serveur vierge, et en 20-30 minutes, t’as :

  • Un serveur SMTP/IMAP (Postfix, Dovecot)
  • Une interface webmail (Roundcube)
  • La synchronisation des contacts et calendriers (Nextcloud, ActiveSync)
  • Des protections contre le spam
  • Des certificats Let’s Encrypt
  • Une interface d’administration simple
  • Un DNS autonome, pour gérer toi-même ton domaine (ou déléguer)

Pourquoi c’est top en auto-hébergement ?

  • Tu contrôles tout : aucun intermédiaire entre ton domaine, ton serveur et tes mails.
  • T’es 100% souverain : pas de dépendance à un GAFAM ou fournisseur obscur.
  • T’apprends des trucs : SPF, DKIM, DNSSEC, DANE… tout devient plus clair.
  • Ça tourne chez toi ou dans ton cloud perso (Proxmox, VPS, Raspberry Pi si t’es joueur).
  • C’est open source (licence CC0), donc sans piège ni espion dans le code.

Installation auto-hébergée pas à pas

  1. Prépare une machine sous Ubuntu 22.04 LTS (physique ou virtuelle).
  2. Ouvre les ports nécessaires dans ta box/firewall : 25, 587, 993, 443, etc.
  3. Aie un nom de domaine prêt à l’emploi (genre mondomaine.fr).
  4. Connecte-toi en SSH : curl -s https://mailinabox.email/setup.sh | sudo bash
  5. Laisse-toi guider. Le script te posera quelques questions et fera tout le reste.
  6. Tu accèdes ensuite à ton interface : https://box.mondomaine.fr/admin

Et niveau sécurité ?

Mail-in-a-Box active automatiquement :

  • Firewall (UFW)
  • Fail2Ban pour bloquer les IPs douteuses
  • SPF, DKIM, DMARC correctement configurés
  • DNSSEC + DANE pour les accros à la sécurité

Exemple perso

Chez moi, le serveur tourne sur une VM Proxmox avec 1,5 Go de RAM et un disque de 180Go. J’ai relié mon domaine, tout est chiffré, mes mails passent sans spam ni rejet (oui oui, même Gmail me respecte).

Je l’utilise pour tous mes mails.

Pourquoi j’ai quitté OPNsense pour IPFire

Il était une fois moi et mon réseau maison flambant neuf en 2,5 Gbps, et… des vidéos qui rament sur YouTube et Disney+.

« Mais pourquoi ça rame, bon sang ?! »
— les enfants, après avoir vu leurs vidéos tourner en rond en 240p

Chapitre 1 — OPNsense, je t’aimais bien pourtant…

Depuis des mois, OPNsense tenait les rênes de mon réseau comme un bon vieux destrier bien configuré. Mais depuis mon passage en 2,5 Gbit/s, impossible de profiter du débit : buffering à gogo, surtout en streaming. J’ai tout tenté :

  • Règles QoS, règles NAT, règles de la physique ?
  • Des réinstallations dans tous les sens même sous Proxmox car je me disais que c’était peut-être un problème de compatibilité avec mon nouveau matériel.
  • Même des sacrifices aux dieux de FreeBSD (ok j’exagère… à peine).

À chaque fois, soit j’avais le streaming qui galérait, soit les débits plafonnaient à 1 Gbit/s. Un comble avec une carte 2,5 GbE flambant neuve.

Chapitre 2 — Et puis, je découvre IPFire 🔥

En mode désespoir, je teste IPFire. Et là, miracle :

  • Les cartes 2,5 GbE reconnues dès le premier boot,
  • YouTube et Disney+ qui tournent comme sur des roulettes,
  • Et surtout : 2,5 Gbps full débit sans bidouille.

Je pensais faire un test… mais ça a été l’installation définitive. Parfois, il faut savoir écouter son réseau : s’il respire mieux ailleurs, il ne faut pas forcer.

Exemple concret

Matériel testé :

  • Mini-PC fanless avec 2 ports 2,5 GbE (Intel i226-V),
  • IPFire installé sur une VM Proxmox,
  • Clients : TV Android, PC, tablette.

Résultat :

  • Iperf3: 2,4 Gbps down / 1  Gbps up
  • Streaming : instantané, zéro buffer, même en 4K HDR.

Conclusion

J’aimais OPNsense pour son interface léchée et sa logique, mais dans mon cas, c’est IPFire qui m’a réconcilié avec le haut débit. Parfois, le plus simple, c’est ce qui marche dès le premier coup.

YouTube rame sur TV ou smartphone ? Ne blâmez pas la fibre !

Contexte maison :
« Papa, YouTube bugue encore ! »
« T’as pas encore réparé le Wi-Fi ? »
…et me voilà en train de passer pour un magicien du réseau aux pouvoirs douteux. Pourtant, tout marchait bien… sur mon navigateur. 🤨

🕵️ Petit diagnostic : YouTube marche bien… mais pas partout

Alors que sur PC tout allait comme sur des roulettes (merci Firefox), sur smartphone ou sur la smart TV, c’était une toute autre histoire :

  • Vidéos longues à charger,
  • Qualité bloquée en 480p,
  • L’app YouTube qui tourne en rond…

Et là, la lumière jaillit 💡 : ces appareils utilisent le protocole QUIC (UDP sur le port 443) pour streamer plus vite que la lumière. Mais OPNsense, de son côté, jouait les gardes du corps un peu trop zélés.

🔒 Le coupable : UDP/443 bloqué par défaut

OPNsense n’autorise pas forcément le trafic UDP sur le port 443, utilisé par QUIC, le protocole préféré de YouTube (notamment sur Android, iOS et les smart TV).

Sur navigateur, YouTube retombe en TCP, donc ça passe. Sur les autres appareils ? Ils insistent, et ça rame.

✅ La solution : autoriser UDP sur le port 443

Voici comment j’ai réglé ça :

  1. Aller dans l’interface OPNsense :
    Firewall > Rules > LAN
  2. Ajouter une règle :
    • Action : Pass
    • Interface : LAN
    • Direction : in
    • Protocol : UDP
    • Source : LAN net
    • Destination : any
    • Destination port : 443
    • Description : UDP pour YouTube
  3. Sauvegarder et appliquer.
  4. Remonter la règle si besoin, au-dessus de règles générales de blocage UDP.

🎉 Résultat

Après ça ? Silence radio des enfants. C’est que YouTube remarche 😁
Je crois même avoir entendu : « Merci Papa, t’es le meilleur sysadmin de la maison ! »
(ou alors j’ai rêvé, mais ça fait du bien quand même).

🧠 En bref

QUIC est un protocole rapide basé sur UDP, mais souvent bloqué par défaut.
Si YouTube rame hors navigateur, surtout sur TV ou mobile, pensez à vérifier vos règles firewall côté UDP 443 dans OPNsense !

Mais au fait… C’est quoi la MFA ?

Ah, la MFA. Non, ce n’est pas une énième école d’art ou un acronyme de startup crypto douteuse. C’est surtout le garde du corps numérique de vos comptes en ligne : la Multi-Factor Authentication, ou authentification multi-facteurs pour les francophones fidèles.

Pourquoi se contenter d’un mot de passe ?

Imagine que tu protèges ta maison avec une seule clé. Si quelqu’un la trouve ou la copie, il entre. Facile. Maintenant, imagine que pour entrer, il faut une clé et une reconnaissance faciale. Là, c’est tout de suite plus compliqué pour le cambrioleur.

La MFA, c’est exactement ça. Elle combine deux ou plusieurs facteurs d’authentification pour vérifier que tu es bien toi :

  • Quelque chose que tu sais (un mot de passe)
  • Quelque chose que tu as (ton téléphone ou une clé physique)
  • Quelque chose que tu es (empreinte digitale, reconnaissance faciale)

C’est quoi l’intérêt ?

Parce que les mots de passe « azerty123 » ou « lapin2024 » sont un peu trop faciles à deviner. Et même si ton mot de passe est solide, les fuites de données arrivent plus souvent qu’une mise à jour de Windows.

La MFA rajoute une couche de sécurité. Même si ton mot de passe est compromis, sans le deuxième facteur… pas d’accès !

Exemple concret :

Tu te connectes à ton compte Google.

  1. Tu tapes ton mot de passe (classique).
  2. Google t’envoie une notification sur ton smartphone pour valider que c’est bien toi.
  3. Tu acceptes. Tu es connecté.

Et si quelqu’un en Russie essaie de se connecter avec ton mot de passe ? Pas de téléphone = pas de validation = pas de panique.

Les formes courantes de MFA :

  • Code par SMS (pas fou, mais mieux que rien)
  • Application d’authentification (Google Authenticator, Authy…)
  • Clé de sécurité USB (YubiKey)
  • Reconnaissance biométrique

Le mot de la fin :

La MFA, c’est pas juste pour les paranoïaques ou les pros de la cybersécurité. C’est une précaution simple et efficace que tout le monde devrait activer, surtout sur ses comptes les plus sensibles (mail, banque, réseaux sociaux…).

Automatiser GLPI avec PowerShell : Guide Complet (avec Scripts)

Introduction

GLPI (Gestionnaire Libre de Parc Informatique) est un outil ITSM très populaire dans les entreprises pour gérer le parc informatique, les tickets, et bien plus. Grâce à son API REST, il est possible d’interagir automatiquement avec GLPI depuis d’autres systèmes, comme PowerShell.

Dans ce guide, vous apprendrez à automatiser des tâches simples avec GLPI et PowerShell. Chaque exemple est expliqué pas à pas, avec les scripts complets.

Prérequis

Avant de commencer :

  1. GLPI configuré avec l’API activée
  2. Un App Token et un User Token (générés dans GLPI)
  3. PowerShell installé (Windows 10+ ou Windows Server)
  4. Si besoin, le module ActiveDirectory si vous utilisez l’AD

1. Initialiser la connexion à l’API GLPI

Avant chaque script, il faut créer une session d’API pour s’authentifier.

# Configuration
$AppToken = "VOTRE_APP_TOKEN"
$UserToken = "VOTRE_USER_TOKEN"
$AppURL = "https://votre-glpi.fr/apirest.php"

# Headers d'authentification
$Headers = @{
    "App-Token"  = $AppToken
    "Authorization" = "user_token $UserToken"
}

# Initier la session
$InitSession = Invoke-RestMethod -Uri "$AppURL/initSession" -Method GET -Headers $Headers
$SessionToken = $InitSession.session_token

# Ajouter le token de session aux entêtes
$Headers["Session-Token"] = $SessionToken

2. Synchroniser la description des ordinateurs depuis Active Directory

Objectif :

Mettre à jour la fiche des ordinateurs GLPI avec la description présente dans Active Directory.

Script :

Import-Module ActiveDirectory

# Lister les ordinateurs AD
$Computers = Get-ADComputer -Filter * -Property Name, Description

foreach ($Computer in $Computers) {
    $GLPIName = $Computer.Name
    $Description = $Computer.Description

    # Chercher la machine dans GLPI
    $Search = Invoke-RestMethod -Uri "$AppURL/Computer/?searchText=$GLPIName" -Method GET -Headers $Headers

    if ($Search.Count -gt 0) {
        $ComputerID = $Search[0].id

        # Mise à jour de la description
        $UpdateData = @{
            input = @{
                id = $ComputerID
                comment = $Description
            }
        } | ConvertTo-Json -Depth 3

        Invoke-RestMethod -Uri "$AppURL/Computer/$ComputerID" -Method PUT -Headers $Headers -Body $UpdateData -ContentType "application/json"
        Write-Host "Mise à jour : $GLPIName"
    }
}

3. Créer un ticket automatiquement depuis un outil de supervision

Objectif :

Créer un ticket GLPI automatiquement dès qu’une alerte est détectée.

Script :

# === Données venant de la supervision ===
$NomServeur = "SRV-01"
$TagClient = "ClientX"   # Le tag/nom de l'entité GLPI
$RequestTypeID = 5        # ID du type de demande 'Supervision' dans GLPI

# === Récupérer l'ID de l'entité GLPI en fonction du nom ===
$EntitySearch = Invoke-RestMethod -Uri "$AppURL/Entity?searchText=$TagClient" -Method GET -Headers $Headers

if ($EntitySearch.Count -eq 0) {
    Write-Error "Entité '$TagClient' introuvable dans GLPI."
    exit
}

$EntityID = $EntitySearch[0].id  # On prend le premier résultat correspondant

# === Création du ticket dans l'entité trouvée avec source Supervision ===
$TicketData = @{
    input = @{
        name = "Alerte serveur - $NomServeur"
        content = "Le serveur $NomServeur a déclenché une alerte critique. (Client : $TagClient)"
        urgency = 3
        impact = 2
        priority = 4
        status = 1
        type = 1
        requesttypes_id = $RequestTypeID  # Source : Supervision
        entities_id = $EntityID
    }
} | ConvertTo-Json -Depth 3

Invoke-RestMethod -Uri "$AppURL/Ticket" -Method POST -Headers $Headers -Body $TicketData -ContentType "application/json"

# === Fermer la session ===
Invoke-RestMethod -Uri "$AppURL/killSession" -Method GET -Headers $Headers

4. Lister les tickets ouverts d’un utilisateur

Objectif :

Afficher tous les tickets non résolus d’un utilisateur précis.

Script :

$UserID = 123  # Remplacez par l'ID utilisateur GLPI

$Response = Invoke-RestMethod -Uri "$AppURL/Ticket?criteria[0][field]=users_id_recipient&criteria[0][value]=$UserID&criteria[1][link]=AND&criteria[1][field]=status&criteria[1][searchtype]=notcontains&criteria[1][value]=closed" -Method GET -Headers $Headers

foreach ($Ticket in $Response) {
    Write-Host "Ticket: $($Ticket.id) - $($Ticket.name)"
}

5. Affecter automatiquement un ticket à un technicien selon la catégorie

Objectif :

Affecter le ticket à la bonne personne selon son type.

Script :

$TicketID = 456      # ID du ticket
$TechnicianID = 78   # ID GLPI du technicien

$AssignData = @{
    input = @{
        id = $TicketID
        users_id_assign = $TechnicianID
    }
} | ConvertTo-Json -Depth 3

Invoke-RestMethod -Uri "$AppURL/Ticket/$TicketID" -Method PUT -Headers $Headers -Body $AssignData -ContentType "application/json"

6. Créer une fiche ordinateur automatiquement via un script

Objectif :

Ajouter une nouvelle fiche ordinateur dans GLPI quand une nouvelle machine est déployée.

Script :

$NomMachine = "PC-NEW01"
$SerialNumber = "SN12345678"

$ComputerData = @{
    input = @{
        name = $NomMachine
        serial = $SerialNumber
        comment = "Ajout automatique via PowerShell"
        entities_id = 0
    }
} | ConvertTo-Json -Depth 3

Invoke-RestMethod -Uri "$AppURL/Computer" -Method POST -Headers $Headers -Body $ComputerData -ContentType "application/json"

7. Fermer la session GLPI

Toujours penser à fermer proprement la session à la fin d’un script :

Invoke-RestMethod -Uri "$AppURL/killSession" -Method GET -Headers $Headers

Conclusion

Avec ces exemples simples, vous avez toutes les bases pour automatiser GLPI avec PowerShell. Vous pouvez aller plus loin en ajoutant :

  • Des logs d’exécution
  • Des interfaces Web internes
  • Des automatisations planifiées

N’hésitez pas à adapter ces scripts à vos besoins réels. C’est un excellent point de départ pour industrialiser vos opérations IT.

Microsoft facture le Hotpatching de Windows Server 2025 : révolution ou simple upsell déguisé ?

Vous aimez redémarrer vos serveurs en plein après-midi ? Microsoft non plus. Mais à partir du 1er juillet 2025, il faudra sortir la CB.

Microsoft va proposer (et facturer) le hotpatching pour Windows Server 2025 à 1,50 $ par cœur et par mois. Cette fonctionnalité permet d’appliquer des mises à jour de sécurité sans redémarrage, limitant ainsi les interruptions de service — idéal pour les environnements critiques ou hybrides.

Mais comme toujours, il y a des conditions :

  • Il faut Windows Server 2025 (Standard ou Datacenter)
  • Il faut que le serveur soit connecté à Azure Arc
  • Et bien sûr, un abonnement Hotpatch actif

À noter : le hotpatching reste gratuit pour Windows Server Datacenter Azure Edition. Traduction ? Si tu es déjà bien lié à Azure, tu ne sentiras pas passer la facture.

Un exemple concret :

Imagine un hébergeur gérant une flotte de 50 VM critiques sur des serveurs à 16 cœurs. Pour activer le hotpatching sur toute sa plateforme :

  • 16 cœurs x 50 serveurs = 800 cœurs
  • 800 x 1,50 $ = 1 200 $ par mois

Alors oui, c’est un coût. Mais pour certains, l’absence de redémarrage (et donc de perte de disponibilité) vaut ce prix.

Faut-il s’abonner ?

C’est optionnel, et c’est bien là l’essentiel. Cette offre s’adresse à ceux qui valorisent la haute disponibilité au-dessus de tout. Dans une PME ou une infra moins sensible ? Le bon vieux redémarrage post-patch du mardi dans la nuit suffira probablement.

Rocket.Chat : L’outil de communication d’équipe qui s’éclate en open source 🚀

Ah, Rocket.Chat ! Un peu comme un super-héros de la communication d’équipe, mais sans la cape (ni les coûts exorbitants). Ce logiciel open source de messagerie instantanée va vous faire oublier les tracas des outils propriétaires à coups de fonctionnalités puissantes et d’une flexibilité qui frôle le génie.

Pourquoi choisir la version auto-hébergée de Rocket.Chat ? 🤔

  1. Totalement sous contrôle
    Vous êtes le maître à bord. Vous gérez l’installation, la configuration et la gestion de votre serveur. L’hébergement est flexible, vous pouvez l’installer sur un serveur local, un VPS ou même sur une infrastructure cloud. Vous êtes à la fois l’administrateur et le gardien de votre propre chat !
  2. Pas de limite côté utilisateurs
    Les versions hébergées par Rocket.Chat limitent souvent le nombre d’utilisateurs ou d’intégrations dans leurs plans payants. En version auto-hébergée, vous êtes libre de mettre autant de personnes que vous voulez sur votre serveur sans payer un centime de plus.
  3. Sécurité avant tout
    Comme l’installation se fait chez vous, la sécurité est de votre responsabilité, mais vous avez tous les outils pour la renforcer. Chiffrement de bout en bout, accès par VPN, gestion des permissions et des rôles utilisateurs… C’est vous qui décidez qui peut voir quoi. Si vous êtes parano (mais à juste titre), vous pouvez même configurer l’authentification à deux facteurs pour encore plus de sécurité.
  4. Personnalisation à fond
    En auto-hébergement, vous pouvez vraiment personnaliser Rocket.Chat à votre sauce. Thèmes, logos, intégrations spécifiques, plugins… Si vous avez des compétences en développement, vous pouvez même modifier le code source pour ajouter des fonctionnalités sur-mesure. Il y a également une large galerie d’applications pour enrichir l’expérience (bots, alertes, notifications…).
  5. Les intégrations, toujours plus nombreuses
    Vous pouvez connecter Rocket.Chat avec une tonne d’outils tiers grâce aux API, aux bots, ou via des intégrations de services comme Google Drive, GitHub, GitLab, et même des outils comme Zapier. Cela permet de centraliser vos outils de travail sans quitter l’interface.
  6. Scalabilité et performance
    Vous n’êtes pas limité par un abonnement ou un plan. Que vous ayez 5 utilisateurs ou 500, Rocket.Chat s’adapte à vos besoins. Il peut facilement évoluer avec vous, surtout si vous disposez d’un serveur puissant. Bien sûr, plus vous avez d’utilisateurs, plus vous devrez surveiller les ressources du serveur, mais c’est faisable !
  7. Un réseau privé ultra-fiable
    L’auto-hébergement vous garantit un réseau privé, à l’abri des tentations externes. Pas besoin de vous inquiéter des fuites de données ou de la vente de vos informations à des tiers. C’est comme avoir une ligne secrète entre vous et vos collègues sans que personne n’écoute.

Comment l’installer ?

  1. Pré-requis
    Avant de commencer, assurez-vous que vous avez les éléments suivants sur votre serveur bare metal :
    • Système d’exploitation : Rocket.Chat fonctionne bien sous Linux (Ubuntu ou CentOS recommandé).
    • Node.js : La version minimale requise est Node.js 18.x.
    • MongoDB : Rocket.Chat utilise MongoDB pour stocker les données, donc vous devrez installer cette base de données.
    • Nginx ou Apache (optionnel) : Utilisé pour servir Rocket.Chat via un reverse proxy si vous souhaitez gérer plusieurs applications sur le même serveur.
  2. Installation
    • Installer les dépendances système
      Commencez par mettre à jour votre serveur et installer les outils nécessaires : sudo apt updatesudo apt upgrade -ysudo apt install -y build-essential curl git libssl-dev libffi-dev python3-devsudo apt install -y mongodb
    • Installer Node.js
      Téléchargez et installez la version compatible de Node.js : curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -sudo apt install -y nodejs
    • Télécharger Rocket.Chat
      Clonez le dépôt officiel de Rocket.Chat : git clone https://github.com/RocketChat/Rocket.Chat.gitcd Rocket.Chat
    • Installer les dépendances de Rocket.Chat
      Une fois dans le répertoire de Rocket.Chat, installez les dépendances nécessaires : npm install --production
    • Configurer MongoDB
      Lancez MongoDB si ce n’est pas déjà fait et créez la base de données : sudo systemctl start mongodb
    • Configurer et lancer Rocket.Chat
      Lancez le serveur Rocket.Chat en exécutant la commande suivante : npm start Cela démarrera le serveur Rocket.Chat sur le port 3000 par défaut. Vous pouvez y accéder via http://<votre-ip>:3000.
    • Configurer Nginx pour un Reverse Proxy (optionnel mais recommandé)
      Si vous voulez gérer le trafic via HTTPS (ce qui est conseillé), vous pouvez configurer Nginx comme reverse proxy. Installez Nginx : sudo apt install nginx Puis créez un fichier de configuration Nginx dans /etc/nginx/sites-available/rocketchat avec le contenu suivant : server { listen 80; server_name <votre-domaine.com>; location / { proxy_pass http://localhost:3000; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; }} Activez la configuration : sudo ln -s /etc/nginx/sites-available/rocketchat /etc/nginx/sites-enabled/sudo systemctl restart nginx
    • Configurer le certificat SSL avec Let’s Encrypt (recommandé pour la sécurité)
      Utilisez Certbot pour obtenir un certificat SSL gratuit : sudo apt install certbot python3-certbot-nginxsudo certbot --nginx Cela sécurisera votre Rocket.Chat avec HTTPS

Conclusion

Avec la version auto-hébergée de Rocket.Chat, vous obtenez une solution complète de messagerie et de collaboration sans dépendre d’un service externe. Oui, ça demande un peu de travail pour l’installation et la gestion, mais si vous êtes passionné par le contrôle total, l’autohébergement est la meilleure option. Et entre nous, avoir son propre Rocket.Chat, c’est quand même carrément stylé, non ? 😎

Alors, prêt à prendre les rênes de votre propre serveur de communication ?

PewDiePie passe sous Linux : la fin de Windows pour le roi de YouTube ?

Ce dimanche 27 avril 2025, une vidéo a fait l’effet d’une petite bombe dans la sphère tech. PewDiePie — de son vrai nom Felix Kjellberg — a annoncé un changement radical : il abandonne Windows (et macOS) pour passer sous Linux. Oui, oui, le PewDiePie. L’un des plus grands youtubeurs du monde, avec plus de 110 millions d’abonnés, soit presque deux fois la population française. Rien que ça.

🧔 Qui est PewDiePie ?

Créateur de contenu suédois, PewDiePie s’est fait connaître dès les années 2010 grâce à ses Let’s Play (Minecraft, Amnesia, etc.) et son humour décalé. Il a longtemps été la personnalité la plus suivie sur YouTube, avec une communauté ultra fidèle et un style bien à lui. Même s’il s’est un peu éloigné des projecteurs ces dernières années, chaque vidéo reste un événement mondial.

💻 Pourquoi quitter Windows ?

Dans sa vidéo “I Installed Linux”, PewDiePie confie son ras-le-bol d’un système devenu lourd, intrusif, et encombré de logiciels inutiles. Entre les pubs pour Candy Crush, les tentatives désespérées de Bing, les vérifications à répétition pour chaque action, et les fameux bloatwares, il en a eu marre.

Même après avoir payé une licence, il a l’impression que son PC appartient plus à Microsoft qu’à lui-même.

🧘‍♂️ La libération numérique : Linux Mint → Arch Linux

Il débute avec Linux Mint, pour sa simplicité et son interface proche de Windows, parfaite pour la transition. Mais PewDiePie ne s’arrête pas là : il installe ensuite Arch Linux, une distribution minimaliste qui demande de mettre les mains dans le cambouis.

Il découvre alors la personnalisation extrême, crée ses propres icônes, configure un gestionnaire de fenêtres tiling, met en place des raccourcis clavier… bref, il s’éclate. Il décrit même l’expérience comme :

“Voir la lumière du jour après des années de captivité numérique.”

🎮 Et le gaming alors ?

Bonne surprise : PewDiePie, gamer historique, note qu’aujourd’hui, Linux permet de jouer ! Grâce à Proton (Valve) et à l’essor du Steam Deck, la compatibilité est bien meilleure qu’il y a 15 ans. Même si certains jeux ou outils restent complexes à faire tourner, il considère que la liberté gagnée vaut largement les quelques concessions.

😡 Adobe, l’expérience qui fâche

Un passage marquant de la vidéo concerne Adobe. Utilisateur de Photoshop depuis plus de 15 ans, PewDiePie doit s’en passer : les logiciels Adobe ne fonctionnent pas nativement sous Linux. Il décide donc de se désabonner… mais mauvaise surprise : des frais de résiliation anticipée lui sont facturés !
Il critique fermement ce modèle par abonnement qu’il juge injuste et rigide — un bon exemple de ce qu’il veut fuir.

🗣 Un appel à sa communauté

En fin de vidéo, PewDiePie invite ses millions d’abonnés à expérimenter Linux, à choisir une distribution, à personnaliser, à apprendre, et surtout, à reprendre le pouvoir sur leur ordinateur. Un message fort, qui pourrait avoir un impact considérable si ne serait-ce que 1 % de ses abonnés sautait le pas : cela représenterait plus d’un million de nouveaux utilisateurs de Linux.

📌 En résumé :

  • PewDiePie quitte Windows pour Linux Mint puis Arch Linux.
  • Il dénonce l’intrusivité et les lourdeurs de Windows.
  • Il découvre la liberté et la personnalisation de Linux.
  • Il critique Adobe pour son modèle d’abonnement contraignant.
  • Il encourage sa communauté à faire de même.

Carbonio Community Edition : Le logiciel de messagerie et de collaboration Open Source qui veut détrôner Microsoft 365 (et il a des arguments)

Fatigué de jongler entre des services de messagerie, de visioconférence et de gestion de fichiers tous plus intrusifs les uns que les autres ?
Carbonio CE, développé par Zextras, arrive avec une promesse simple : « Faites tout, depuis chez vous (ou votre serveur) ».

Mais c’est quoi Carbonio CE ?

C’est une suite collaborative complète, open source, qui inclut :

  • Un webmail moderne (et rapide),
  • Un agenda et une gestion des contacts intégrés,
  • Une visio intégrée (WebRTC),
  • Du partage et édition collaborative de fichiers,
  • Le tout hébergé chez vous (et pas sur les serveurs d’un géant américain).

Bref, un Microsoft 365 ou un Google Workspace mais sans l’abonnement, sans les mouchards, et avec une vraie philosophie open source.

Pourquoi c’est intéressant ?

Parce que c’est rare de trouver une solution aussi complète, libre, avec une interface propre (non, ce n’est pas une usine à gaz), et des mises à jour régulières.
Carbonio CE coche toutes les cases pour une PME, une collectivité ou un geek bien organisé.

Et surtout : aucune version payante n’est requise pour avoir toutes les fonctionnalités. C’est la version communautaire, et elle est complète.

Installation : faut-il être devOps ?

Non. Un Ubuntu Server 20.04, une IP fixe, un domaine bien configuré, et leur script d’installation fait une bonne partie du travail.
Ensuite, on accède à une console d’administration clean pour gérer utilisateurs, quotas, domaines, etc.
Ajoute un Reverse Proxy (comme Nginx Proxy Manager) et un certificat Let’s Encrypt, et bim, tu as ton Google perso.

Exemple concret : la PME qui en avait marre des abonnements

Prenons PixAlp Studio, un studio graphique de 12 personnes. Ils utilisaient Google Workspace à 7€ par mois et par utilisateur.
Ils sont passés à Carbonio CE en une journée, migré leurs mails (IMAPSync, coucou), et réduit leur facture cloud de 1000€/an.
Bonus : plus de problème de stockage limité ni de contrôle des données.

Mon avis d’informaticien qui aime bidouiller mais pas galérer

  • Interface fluide : check.
  • Fonctionnalités pro : check.
  • Admin centralisé : check.
  • Auto-hébergement easy : check.
  • Respect de la vie privée : gros check.

Si tu cherches une alternative sérieuse à Microsoft 365 ou Google, sans compromis fonctionnel, Carbonio CE mérite clairement ta VM.