Array ( [0] => WP_Post Object ( [ID] => 4149 [post_author] => 6 [post_date] => 2023-04-27 10:06:34 [post_date_gmt] => 2023-04-27 10:06:34 [post_content] => L'interdiction d'utiliser le TikTok chinois sur les appareils gouvernementaux aux États-Unis et dans plusieurs pays alliés n'est qu'une des manifestations de l'opposition technologique entre les Etats-Unis et la Chine. Les États-Unis s'inquiètent non seulement de l'invasion de la technologie chinoise dans divers secteurs de l'économie, mais aussi de leur dépendance à l'égard des usines de fabrication de puces situées à Taïwan. La Maison-Blanche encourage les investissements dans la fabrication nationale de puces (et plus), limitant l'utilisation de la technologie chinoise et encourageant les alliés à faire de même. Au cours de l'été 2022, des allégations selon lesquelles TikTok menacerait la sécurité nationale des États-Unis, collecterait trop de données sur les citoyens et pourrait les transférer au gouvernement chinois, ont conduit à une interdiction progressive de l'application, d'abord par des États et des universités, puis par les agences gouvernementales. En mars, la revendication d'un produit spécifique s'est transformée en une tentative de politique cohérente. Ensuite, le Sénat a enregistré le RESTRICT Act, un projet de loi visant à limiter les menaces pesant sur les technologies de l'information et de la communication (Restricting the Emergence of Security Threats that Risk Information and Communications Technology). Le document stipule que le ministère américain du Commerce peut obtenir la permission d'interdire toute technologie ou outil s'il est « associé à un adversaire étranger des États-Unis et pose un risque injustifié et inacceptable pour la sécurité nationale ou les citoyens américains ». Les manifestations spécifiques des risques sont aussi indiquées dans ce document. Il s'agit notamment de « l'impact sur les infrastructures critiques », « l'interférence avec les élections fédérales et leur manipulation » ou « l'atteinte au processus démocratique pour orienter les décisions politiques et réglementaires en faveur des objectifs stratégiques d'un adversaire étranger et au détriment de la sécurité nationale des États-Unis ». Le projet de loi s'applique potentiellement aux organisations et entreprises de pays désignées comme « adversaires étrangers ». Dans la première version du document, la Chine, Cuba, l'Iran, la Russie et le Venezuela sont définis comme tels. Dans le même temps, certains dirigeants de géants américains de la technologie craignent que les nouvelles règles n'aient un impact négatif sur eux, car la plupart d'entre eux utilisent des développements ou des composants chinois d'une manière ou d'une autre. Bien que le projet de loi soit le plus souvent discuté dans le cadre de l'interdiction de TikTok, cette application vidéo n'est qu'une des manifestations de la domination de la technologie chinoise sur le marché américain. Par exemple, 4 des 5 meilleures applications mobiles gratuites aux États-Unis ont été créées en Chine. Dans le même temps, les outils américains populaires (un certain nombre de produits Meta, Google, les médias populaires), à leur tour, sont depuis longtemps soumis à des restrictions chinoises. Compte tenu de la popularité des services VPN chinois parmi les Américains, la préoccupation du gouvernement et des législateurs concernant la quantité excessive de données qui pourrait tomber entre les mains du gouvernement chinois semble tout à fait fondée. [post_title] => Danger de TikTok: comment la Chine et les États-Unis se disputent le contrôle de l'innovation [post_excerpt] => [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => danger-de-tiktok-comment-la-chine-et-les-etats-unis-se-disputent-le-controle-de-l-innovation [to_ping] => [pinged] => [post_modified] => 2023-05-03 13:34:39 [post_modified_gmt] => 2023-05-03 13:34:39 [post_content_filtered] => [post_parent] => 0 [guid] => https://tyzhden.fr/?p=4149 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [1] => WP_Post Object ( [ID] => 3859 [post_author] => 6 [post_date] => 2023-04-14 14:53:43 [post_date_gmt] => 2023-04-14 14:53:43 [post_content] => Fin mars, le fondateur de la société Petcube, Yaroslav Azhniuk, a déclaré qu'il était temps d'interdire l'utilisation de Telegram en Ukraine. Dans un même temps, cet outil de messagerie est déjà devenu un facteur important, permettant aux Ukrainiens de s’informer sur la guerre. C'est aussi un service de communication rapide. L'application est même utilisée par des fonctionnaires : à la fois pour communiquer, et pour informer le public sur leurs activités. Par ailleurs, Telegram n'a pas la meilleure réputation parmi les professionnels de la sécurité. Pendant longtemps, l'hypothèse que les liens présumés de Telegram avec les autorités russes peuvent être à l'origine de la vulnérabilité de l'application était vue comme une exagération. Mais aujourd'hui, les doutes se renforcent. Durov et Kremlin Selon Pavel Durov, le « père » de Telegram, il a commencé à réfléchir à la création d'une messagerie sécurisée en 2011 lorsqu'il a été approché par les services secrets russes. Deux ans plus tard, Durov a présenté la première version de Telegram. À cette époque, il ne possédait plus de parts dans le réseau social VKontakte, qu'il avait créé - par une série de transactions, Mail.Ru Group avait acheté plus de 52 % des actions, après quoi Durov avait vendu le reste et a quitté la Russie. En 2017, les autorités russes ont tenté de bloquer Telegram en raison de son non-respect de la loi dite de Yarovaya (député russe). Parmi les exigences de cette loi figuraient une restriction sur l'utilisation de tout outil de cryptage, et l'obligation de stocker les données d'activités des internautes en Russie. Les tentatives de blocage qui ont débuté en 2018 ont eu peu d'impact sur l'accessibilité de Telegram. La confrontation prolongée entre le produit de Durov et Roskomnadzor s'est terminée par des concessions mutuelles. Tout d'abord, Telegram a annoncé la localisation de ses serveurs en Russie (ce qui était l'une des exigences clés de la loi de Yarovaya), puis les députés de la Douma ont rédigé un projet de loi visant à débloquer Telegram. Par la suite, des chaînes d'agences gouvernementales russes et des hauts fonctionnaires ont commencé à apparaître en masse sur Telegram. Roskomnadzor, qui avait tant insisté pour bloquer la messagerie, a lancé sa propre chaîne. Pourquoi les autorités russes, qui s'opposaient tant à Telegram, sont devenus si coopératives ? Cette question reste sans réponse, ce qui alimente les soupçons sur les relations réelles de Durov avec le Kremlin. L'aspect financier de l'affaire n'est pas clair non plus. En 2016, Durov a déclaré qu'il dépensait environ 1 million de dollars par mois de ses propres fonds pour assurer le maintien de Telegram. À cette époque, l'audience de Telegram était d'environ 100 millions d'utilisateurs, et en 2021, elle dépassait le demi-milliard. De la publicité a commencé à apparaître sur la messagerie assez tard, seulement à partir de novembre 2021. Entre-temps, en mars de la même année, Durov a levé un milliard de dollars d'investissement en plaçant des obligations par l'intermédiaire de banques russes. Les propriétaires ultimes des obligations de Telegram ne sont pas connus. On peut dire sans risque de se tromper que les investisseurs de Telegram incluent le Fonds russe d'investissement direct : une structure financière publique qui fait l'objet de sanctions américaines depuis le 28 février de l'année dernière. Failles de sécurité Pour qu'une messagerie soit qualifiée de sécurisée, elle doit répondre à certains critères. Tout d'abord, elle prend en charge le cryptage complet de bout en bout, ce qui empêche des personnes non autorisées d'interférer avec les messages ou de les lire. La deuxième condition obligatoire est de sauvegarder les messages uniquement sur les appareils des utilisateurs participant au dialogue, et non sur les serveurs du fournisseur de la messagerie. La transparence du code du logiciel, l'auditabilité de l'entreprise et l'absence de piratage et de fuite de données sont également souhaitables. Telegram ne répond pas au premier critère obligatoire pour la sécurité d'une messagerie, parce qu’il utilise le cryptage de bout en bout uniquement dans des discussions secrètes, et non pas dans toutes les discussions par défaut. La messagerie stocke aussi les messages sur ses serveurs. Et comme l'entreprise a respecté la « loi de Yarovaya » et installé des serveurs en Russie, les Ukrainiens ne peuvent être sûrs que leurs messages ne finiront pas sur des serveurs physiquement situés dans le pays envahisseur. En ce qui concerne l'open-source, Telegram suscite également des doutes. Seul le code des applications mobiles sont open-source, mais pas le côté serveur. Par conséquent, seule la société Telegram sait ce qui se passe exactement quand le message d'un utilisateur arrive sur les serveurs de Telegram. Faits révélateurs En février 2023, une vaste enquête mené par le média Wired a alimenté le feu des soupçons sur Telegram. Les journalistes ont cité plusieurs cas où des agents du FSB ont arrêté des opposants, se référant à une correspondance dans Telegram. L'une des personnes arrêtées a affirmé qu'elle correspondait avec des collègues dans des conversations secrètes. Selon les auteurs de l'enquête, il s'agit là d'un des exemples possibles de coopération de Telegram avec les autorités russes, qui, en possession des clés de cryptage du service, peuvent lire les messages des utilisateurs. Les journalistes de Wired soulignent également que de nombreuses questions se posent sur la sécurité de l'API Telegram (l'interface pour les développeurs tiers qui peuvent utiliser les fonctionnalités de l'application). Ses fonctions vous permettent de déterminer la géolocalisation exacte des utilisateurs, de voir à quelles chaînes ils sont abonnés et de créer un portrait détaillé pour chaque utilisateur du service. Et en décembre 2022, l'expert en sécurité Matt Tate a évoqué d'autres cas de surveillance d'Ukrainiens à l'aide de Telegram. Il s'agit des résidents des territoires occupés par la Russie, dont la correspondance a été surveillée par les services spéciaux russes sur Telegram. Tate analyse l'histoire d'un habitant de Kherson, dont la correspondance avec les représentants des services spéciaux ukrainiens est tombée entre les mains des occupants. L'homme a été capturé et retenu captif et torturé pendant 11 jours, puis on a essayé de l'utiliser pour identifier d'autres résistants. Selon l'expert, les Russes ont eu accès à sa correspondance grâce aux métadonnées et aux vulnérabilités de l'algorithme de messagerie utilisé par Telegram. « La sécurité de Telegram a longtemps été remise en question par la communauté de la cyber sécurité. De nombreux aspects de sa conception n'ont aucun sens du point de vue de la sécurité. Mais jusqu'à présent, il n'y avait aucune preuve tangible que les services spéciaux russes l'ont utilisée dans la pratique », a écrit Tate. Bien sûr, il n'est pas facile de bloquer tout simplement Telegram en Ukraine. Ne serait-ce que parce que sa popularité a rapidement accrue pendant la guerre totale. De plus, les structures officielles utilisent aussi la messagerie, ils devront trouver une plateforme alternative avant l'hypothétique « interdiction » de Telegram. Néanmoins, compte tenu des risques réels et potentiels, l'Ukraine doit s'orienter progressivement vers l'abandon du service, même si cela prend du temps. [post_title] => Télégramme de Loubianka. Pourquoi le lien entre Telegram et les autorités russes n'est pas un mythe de conspirationniste [post_excerpt] => [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => telegramme-de-loubianka-pourquoi-le-lien-entre-telegram-et-les-autorites-russes-n-est-pas-un-mythe-de-conspirationniste [to_ping] => [pinged] => [post_modified] => 2023-04-26 10:59:01 [post_modified_gmt] => 2023-04-26 10:59:01 [post_content_filtered] => [post_parent] => 0 [guid] => https://tyzhden.fr/?p=3859 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [2] => WP_Post Object ( [ID] => 3521 [post_author] => 6 [post_date] => 2023-03-31 13:41:22 [post_date_gmt] => 2023-03-31 13:41:22 [post_content] => OpenAI, le développeur du célèbre chatbot ChatGPT, a récemment présenté son dernier modèle de langage, GPT-4. Malgré les attentes de la communauté technologique, l'entreprise n'a presque rien révélé sur les principes de fonctionnement de sa nouveauté, les ensembles de données qu'elle utilise (ensembles de données qui permet à ChatGPT d’apprendre) ou d'autres informations d’ordre technique. Avec cette décision, OpenAI s’est retrouvé sous le feu des critiques. Cependant, face à l’intensification des discussions sur l'utilisation incontrôlée de l'intelligence artificielle et des craintes quant à son utilisation dans la vie quotidienne, la décision est logique. C'est une manifestation de la contrainte technologique - un phénomène qui se produit quand les technologies dépassent le degré de préparation de la société à l'acceptation et à l'utilisation, et l'émergence de lois capables d’en réglementer les innovations. OpenAI refuse d'être ouverte L'annonce publique de GPT-4 n'était pas seulement accompagnée des détails techniques du projet. En plus de cela, OpenAI a expliqué que l'entreprise ne soutenait plus le principe de l'open source, ce qui constitue un changement conceptuel beaucoup plus grave. Bien que l'annonce du nouveau modèle d'IA linguistique de la prochaine génération GPT-4 ait eu lieu relativement récemment et que les capacités du système soient toujours en cours d'évaluation, de nombreux experts associés à l'entreprise ont déjà apporté les premières critiques au travail du génératif modèle. L'entreprise a partagé un grand nombre de résultats comparatifs et de tests pour GPT-4, mais n'a fourni aucune information sur les données qu'elle a utilisées pour former le système. Elle n'a pas non plus divulgué les méthodes spécifiques utilisées pour créer le nouveau modèle. Les critiques issues du milieu de l’intelligence artificielle concernent sur le fait de porter atteinte à l'esprit de l'entreprise en tant qu'organisme de recherche et de faire obstacle à la répétition du travail par d'autres. Certains ont même souligné que cela rend aussi plus difficile le développement de défenses contre les menaces créées par des systèmes d'intelligence artificielle tels que GPT-4. Sécurité et prudence Commentant sa décision, l'un des co-fondateurs d'OpenAI, Ilya Soutskever, a avancé deux raisons à cela. La première est la grande concurrence, et le second est la nécessité de se conformer à la sécurité. « Ces modèles sont très puissants et le deviennent de plus en plus. À un moment donné, il sera assez facile avec ces modèles d'infliger beaucoup de dégâts. Et comme cette probabilité ne fait qu’augmenter, la raison pour laquelle nous ne voulons pas les divulguer est évidente », a expliqué Soutskever. Cette approche contredit vraiment l’un des principes de base de l'entreprise : la transparence. Expliquant le changement de paradigme, Soutskever déclare : « Nous avions tort. Si vous pensez, comme nous, qu'à un moment donné, l'intelligence artificielle - ou même l'intelligence artificielle générale (AGI) - va devenir extrêmement, incroyablement puissante, alors cela n'a aucun sens d'ouvrir le code source. C'est une mauvaise idée… Je suis convaincu que dans quelques années, il sera absolument clair pour tout le monde qu'il ne peut pas y avoir d'intelligence artificielle en source ouverte »… La principale capacité de l'intelligence artificielle générale, aussi appelée intelligence artificielle universelle, est de comprendre n'importe quelle tâche à laquelle les humains sont confrontés et de la résoudre tout aussi efficacement. En d'autres termes, l'intelligence artificielle générale est ce que nous voyons dans les films de science-fiction, où l'intelligence artificielle peut être aussi intelligente qu'un humain. A qui appartiennent les données ? Il ne peut être exclu que le refus de divulguer des détails sur GPT-4 soit en rapport avec la responsabilité légale, à savoir des informations sur les données sur lesquelles le modèle a été formé et si elles comprenaient des données personnelles ou du matériel protégé par le droit d'auteur. L'ensemble de données sur la base duquel les modèles de langage de l'intelligence artificielle sont formés est une caractéristique très importante de ceux-ci et détermine souvent les capacités des outils qui fonctionnent avec de tels modèles. Par exemple, GPT-3.5 a été formé sur les données jusqu'en 2021. En conséquence, la version de ChatGPT publiée au début de l'année ne peut pas gérer les dernières nouvelles et événements, et ne fonctionne qu'avec des informations connues jusqu'en 2021 inclus. Jusqu'à présent, les modèles de langage n'ont pas fait l'objet de poursuites pour des questions de droits d'auteur, mais d'autres outils d'IA - des générateurs d'images dotés d'une intelligence artificielle qui apprennent aussi à partir de contenus en ligne (DALL*E 2, Midjourney) - ont déjà été attaqués en justice par des artistes indépendants et la banque de photos Getty Images pour violation des droits d'auteur. Lorsqu'on a demandé à Ilya Soutskever dans une interview si OpenAI pouvait confirmer que l'ensemble de données et les données de formation ne contenaient pas de matériel piraté, il n'a pas répondu directement. Boîte noire dangereuse Jamais auparavant une nouvelle intelligence artificielle puissante n'était passée aussi rapidement du laboratoire aux produits de consommation. Et c'est précisément le danger. Malgré toute la force et la puissance de GPT-4, il reste imparfait et capable de générer du faux contenu comme les autres modèles de langage. D'une part, OpenAI affirme que les tests de sécurité GPT-4 étaient suffisants pour que les applications tierces utilisent le produit. Mais OpenAI s’attend aussi à des surprises. « La sécurité n'est pas une chose binaire ; c'est un processus », dit Soutskever. « Tout devient plus difficile à chaque addition de nouvelles capacités. Beaucoup de ces possibilités sont maintenant assez bien comprises, mais je suis sûr que certaines seront encore surprenantes », précise-t-il. Dans le même temps, OpenAI ne cache pas que la capacité de GPT-4 à générer des contrefaçons très convaincantes leur fait craindre les conséquences futures de la technologie. Le rapport OpenAI indique que GPT-4 génère des faux « de manière plus convaincante que les versions précédentes du modèle ». Le rapport indique qu'une dépendance excessive à l'égard des informations générées par un chatbot peut s'avérer problématique. En plus des erreurs non détectées et d'une supervision inadéquate, « à mesure que les utilisateurs deviennent plus à l'aise avec le système, la dépendance au modèle peut entraver le développement de nouvelles compétences ou même entraîner la perte de compétences importantes ». Quels problèmes peuvent apparaître alors ? L’un d’entre vient de la capacité de ChatGPT à tromper un candidat à un emploi. Le bot devait accéder à des données protégées par un code captcha (pour vérifier si l'utilisateur est une personne réelle). Auparavant, les machines ne pouvaient pas passer ce test. Mais le robot a engagé un humain sur le site d'emploi TaskRabbit pour qu'il passe le code captcha à sa place. Quand le candidat a demandé si le recruteur n'était pas un robot, le robot a menti. Il a expliqué le fait même de la demande par de la cécité. Un autre exemple de comportement problématique du chatbot ressort des tests du Alignment Research Center, démontrant la capacité du chatbot à lancer une attaque de phishing. Des tentatives de cybercriminels d'utiliser des chatbots pour écrire du code malveillant et organiser des cyberattaques ont aussi déjà été enregistrées. Tous ces risques, qui ne peuvent que s’amplifier si les modèles d’IA sont largement utilisés, ont conduit à la décision d'OpenAI de limiter l'accès au code et à l'ensemble de données. Autres risques Outre les risques purement techniques, l'utilisation massive de l'intelligence artificielle comporte d'autres risques dangereux pour les droits de l'homme. Les grandes quantités de données disponibles sur chaque internaute permettent de créer des messages manipulateurs sophistiqués. Après tout, sur la base de ces informations et sur la base des demandes qu'une personne adresse à un chatbot, il est possible de recevoir des données sur ce qui est susceptible d'influencer l'utilisateur, de l'enthousiasmer ou de l'irriter. Il permet aussi de créer des systèmes de fraude personnalisés. Un autre problème est la discrimination, c'est-à-dire la sélection de certains groupes de personnes sur la base de données les concernant. L'exemple le plus simple est l'utilisation de l'intelligence artificielle dans le recrutement, où l'algorithme va trier les candidats, par exemple, par âge. C'est pourquoi de plus en plus d'entreprises limitent l'utilisation des chatbots IA à des fins commerciales, en tenant compte des risques généraux de cette technologie et des dangers des données sensibles. En 2016, le chercheur en intelligence artificielle Nick Bostrom a comparé les expériences de l'humanité avec l'intelligence artificielle à des enfants jouant avec une bombe. Selon lui, nous ne comprenons pas encore toutes les conséquences que l'utilisation massive des outils d'IA entraînera. Le scientifique est convaincu que le modèle le plus probable ne sera pas celui dans lequel l'IA détruira l'humanité à l'aide d'une arme, mais la manipulera simplement, comprenant comment fonctionne le cerveau humain et comment la pensée humaine peut être manipulée. Ce manipulateur peut également devenir une entreprise privée qui comprendra tous les avantages de l'utilisation de l'intelligence artificielle et apprendra à travailler avec. C'est pourquoi le modèle fermé adopté par OpenAI est un scénario plus sûr pour le développement de l'intelligence artificielle dans l'environnement actuel. [post_title] => L'intelligence artificielle fermée. Pourquoi OpenAI abandonne l'approche ouverte du ChatGPT [post_excerpt] => [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => l-intelligence-artificielle-fermee-pourquoi-openai-abandonne-l-approche-ouverte-du-chatgpt [to_ping] => [pinged] => [post_modified] => 2023-03-31 13:41:22 [post_modified_gmt] => 2023-03-31 13:41:22 [post_content_filtered] => [post_parent] => 0 [guid] => https://tyzhden.fr/?p=3521 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) [3] => WP_Post Object ( [ID] => 2709 [post_author] => 7 [post_date] => 2023-03-01 13:34:27 [post_date_gmt] => 2023-03-01 13:34:27 [post_content] => La Russie ne cesse de renforcer ses moyens de créer un espace numérique distinct, un internet russe souverain qui filtrera les contenus auxquels les citoyens ont accès, sur le modèle chinois. Ce qui fait l’intérêt d’Internet, c’est qu’il s’agit d’un réseau ouvert et mondial. Mais ces dernières années, la Russie tente de créer un espace numérique limité. L'objectif de l'Internet souverain en Russie est de créer un système de surveillance numérique et de contrôle des actions des citoyens. Il veut surtout limiter l'accès des Russes aux contenus non approuvés par le Kremlin et Roskomnadzor (le Service fédéral de surveillance dans le domaine des communications de Russie). La loi russe sur l'Internet «souverain» existe depuis quatre ans. Des préparatifs techniques sont en cours en Russie depuis longtemps pour que le «Tcheburnet» (ainsi nommé d’après un célèbre personnage de dessin animé russe, ndlr), comme on appelle aussi la version russe de l'Internet souverain, devienne une réalité. Certains experts n'excluent pas que la Russie suive la voie de la Chine et de l'Iran, et que le gouvernement puisse activer et désactiver l'accès public à Internet. À partir du 1er février 2023, la loi introduit une responsabilité administrative en Russie en cas de non-respect par les opérateurs de communication des exigences de «fonctionnement stable des installations.» Cela signifie que les opérateurs russes devront non seulement assurer le fonctionnement ininterrompu des réseaux, mais aussi veiller à ce que le support technique et la modernisation, soient effectués uniquement par des structures russes. Cette exigence est, en fait, un pas de plus vers la construction d'un Internet souverain. L'une des principales tâches de l'Internet souverain est que l'État reçoive le droit de veto sur tout canal de communication, en particulier transfrontalier. Il doit simplifier grandement la possibilité de blocage ponctuel de sites Web individuels et de protocoles entiers. La préparation technique pour que fonctionne cet Internet souverain se poursuit encore aujourd'hui. Début janvier, Roselektronika a promis de lancer son propre Internet par satellite russe. Roskomnadzor a beaucoup fait pour que les Russes se se cantonent dans un espace de l'Internet « indépendant » ou plutôt limité. Le blocage des produits de Meta aurait pu être une raison pour la société russe d'exprimer son désaccord face aux tentatives de s'imposer dans un espace numérique limité, mais elle a avalé la décision. YouTube est resté accessible des Russes pour le moment , mais ils discutent activement du blocage de Wikipédia et travaillent même sur son alternative. Le rideau de fer numérique qui sépare la Russie du monde civilisé tombe de plus en plus, et les sanctions font qu’il est de plus en plus difficile de croire qu’un espace Internet libre peuvent exister en Russie, même dans une version limitée. L'expert en informatique Oleksiy Semeniaka a répondu à plusieurs questions de The Ukrainian Week/ Tyzhden.fr et a expliqué les particularités de l'Internet russe. - Quelles mesures ont déjà été prises en Russie pour créer un Internet souverain et combien d'argent a-t-il dépensé pour cela ? - Déjà aujourd'hui, un système de contrôle du trafic est utilisé à l’entrée du Runet (l’internet russe, ndlr), et il fonctionne indépendamment des opérateurs de communication. Il est installé dans ces entreprises avec l'argent de l'État. C'est l'élément le plus cher du Tcheburnet, et la Russie y a déjà investi de l'argent. Le coût de ces investissements peut être estimé à environ 4 milliards de dollars. - La Russie peut-elle limiter complètement l'accès à toutes les ressources Web étrangères ? - Oui, c'est techniquement possible. Mais la question n'est pas seulement l'efficacité de cesmesures, mais aussi quels seront les effets secondaires de ces processus. Par exemple, au début de l'année, nous avons vu que les navigateurs occidentaux ne comprenaient pas comment fonctionner avec les certificats des site russes. En conséquence, les certificats occidentaux peuvent cesser de fonctionner dans le Runet et de nombreux sites cesseront tout simplement de s'ouvrir. - Si l'on se réfère à l'histoire du blocage de Telegram en Russie en 2018, on se souvient que les autorités ont échoué. Est-il possible que la situation se répète maintenant ? - Malheureusement, aujourd'hui, les autorités russes en savent plus et disposent de nombreux nouveaux outils et moyens qui n'étaient pas disponibles en 2018. Par exemple, Roskomnadzor nécessite désormais l'installation de MTCM (moyens techniques de lutte contre les menaces - ТССЗ). Il s'agit de systèmes software et hardware que tous les opérateurs de télécommunications sont obligés de posséder. Ils savent comment limiter l'accès à certaines informations - sites individuels ou pages Web. La création de MTCM est une exigence inscrite dans la loi « Sur l'Internet souverain. » En conséquence, MTCM est en mesure de bloquer les contenus interdits plus rapidement et plus efficacement. De plus, MTCM sait non seulement bloquer, mais aussi ralentir certains services et protocoles de transfert de données, par exemple, c'est ainsi que Roskomnadzor a ralenti Twitter. - Est-il possible de comparer l'Internet souverain russe avec le modèle chinois de « grande muraille » ? - En Russie, le blocage est basé sur le modèle des « listes noires, » c'est-à-dire la restriction de l'accès aux informations interdites. La Chine fonctionne selon le modèle des « listes blanches »: elle permet l'accès à une certaine liste de ressources légitimes. Cependant, s'il existe une volonté politique de le faire, la Russie peut passer au modèle des « listes blanches. » Et ce sera déjà, dans un certain sens, un Internet souverain séparé. L'Internet souverain russe vise à être fermé au monde extérieur. Et ici, personne ne pense au citoyen moyen ou à l'entreprise. Il s’agit de faire en sorte que les citoyens ne voient pas ou n'aient pas accès à quelque chose d'interdit. L'Internet souverain russe sera un espace obligatoire et unifié pour tous les Russes, qu'ils le veuillent ou non. [post_title] => Comment la Russie construit un rideau de fer numérique [post_excerpt] => [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => comment-la-russie-construit-un-rideau-de-fer-numerique [to_ping] => [pinged] => [post_modified] => 2023-03-02 10:18:25 [post_modified_gmt] => 2023-03-02 10:18:25 [post_content_filtered] => [post_parent] => 0 [guid] => https://tyzhden.fr/?p=2709 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw ) )

Author: Nadiya Balovsiak

Professeur agrégé du Département des communications médiatiques de l'UCU