Apple cède enfin : chiffrement bout-en-bout entre iPhone et Android

Après des années de résistance, Apple active le chiffrement RCS entre iPhone et Android. Une victoire de la pression réglementaire sur l'enfermement propriétaire.

15 mai 2026
Apple cède enfin : chiffrement bout-en-bout entre iPhone et Android
Finally, texts between Android and iPhone users can be end-to-end encrypted | TechCrunch
Google had urged Apple for years to support RCS texting to make communication between each company’s devices more seamless.

Apple vient de franchir une étape qu'elle a repoussée pendant des années : le chiffrement bout-en-bout entre iPhone et Android via RCS. Cette évolution met fin à une asymétrie délibérément maintenue depuis 2011 — iMessage était chiffré entre iPhone, mais Apple refusait d'étendre cette protection aux conversations avec Android. Le mécanisme révèle une stratégie d'enfermement par la dégradation : les messages Android apparaissaient en « bulles vertes » avec une qualité volontairement dégradée, créant une pression sociale pour rester dans l'écosystème Apple. Google a dû faire campagne publique pendant des années pour obtenir cette interopérabilité. L'adoption d'Apple en 2023 résulte directement de la pression réglementaire européenne. Cette capitulation illustre comment la régulation peut forcer l'ouverture des jardins fermés, même quand l'enfermement génère des milliards de revenus.

Points de vigilance

Le déploiement reste en beta et dépend des mises à jour logicielles. Apple conserve le contrôle de l'activation côté iPhone. Risque que l'implémentation reste bridée pour maintenir un avantage concurrentiel subtil.

Et maintenant ?

  • 🤘 Documenter les asymétries d'interopérabilité pour alimenter les régulateurs

Cartographier systématiquement les dégradations volontaires entre écosystèmes (qualité, fonctionnalités, sécurité) et publier des rapports techniques accessibles aux autorités de concurrence. Créer une base de données collaborative des pratiques d'enfermement documentées.

→ On saura que ça marche quand les autorités de concurrence citeront ces documentations dans leurs décisions d'enquête et leurs amendes.

  • 💪 Tester et signaler les asymétries de service entre plateformes

Documenter concrètement les différences de qualité, sécurité ou fonctionnalités selon l'écosystème utilisé. Partager ces tests comparatifs pour créer une pression sociale sur les pratiques d'enfermement et alimenter les recours collectifs.

→ On saura que ça marche quand les entreprises tech justifieront publiquement leurs choix d'interopérabilité face à la documentation utilisateur.

  • ✊ Coordonner des migrations collectives vers les protocoles ouverts

Organiser des campagnes de migration groupée vers des services utilisant des protocoles interopérables (Matrix, XMPP, ActivityPub) pour démontrer la viabilité des alternatives et fragiliser le pilier 'effet de réseau' des plateformes fermées.

→ On saura que ça marche quand les plateformes propriétaires annonceront spontanément des améliorations d'interopérabilité pour retenir leurs utilisateurs.


8/10 : Score sur l'échelle des "5 piliers de la liberté", inspiré de l'ouvrage de Timothy Snyder
Framework #FLTR — Note méthodologique
Protocole de production et de publication dont la ligne éditoriale est codée dans l’ADN-même du projet. Cette architecture auto-apprenante transforme une intention humaine en contraintes techniques, imposées tant aux outils d’intelligence artificielle qu’aux humains qui les entrainent, et vice-versa

Ces pistes ne sont pas des recettes toutes faites, mais des points d'entrée pour repenser nos systèmes numériques selon une logique de liberté positive : non pas limiter, mais augmenter nos capacités collectives d'action.

Le règlement européen sur l'IA exclut explicitement la sécurité nationale de son périmètre. En Belgique, aucun cadre législatif ne régit aujourd'hui l'utilisation de l'intelligence artificielle par la Défense ou la Police fédérale. La pétition déposée à la Chambre demande trois choses concrètes : un inventaire des systèmes IA déjà déployés, des standards nationaux minimaux, et un positionnement parlementaire sur la surveillance de masse et les armes autonomes.

Comment agir ? La pétition nécessite 25 000 signatures, réparties entre la Flandre, la Wallonie et Bruxelles, pour déclencher un examen parlementaire. C'est un mécanisme démocratique existant — il suffit de l'activer. Signer prend moins d'une minute sur le site de la Chambre

56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - 56_2025-2026/60 - IA militaire en Belgique : transparence et règles — demande de contrôle parlementaire - Pétitions - Petities
L’AI Act européen exclut la sécurité nationale de son champ. Aucun texte belge n’encadre donc l’usage de l’IA par la Défense nationale et la Police fédérale.Je demande à la Chambre d’adopter une résolution pour :(1) obtenir du gouvernement un état des lieux des systèmes IA déployés et de leurs garanties contractuelles ; (2) fixer des règles nationales minimales ; et (3) se prononcer sur l’usage de l’IA pour la surveillance de masse et les armes sans supervision humaine.

💬 On en discute ?

Tu veux recevoir le flux quotidien des articles publiés sur le site ? Suis-moi sur LinkedIn, Bluesky, Mastodon, Facebook ou rejoins-moi sur Discord !

Tu as des remarques, des suggestions, ou tu veux discuter d'une idée pour avancer dans tes propres projets ? Connecte-toi et laisse-moi un commentaire ou jette un oeil directement à mon agenda. 📆