Commentaires fermés sur Une analyse de risque
Les modèles de risque sont au cœur de l’autocontrôle du secteur financier ainsi que de la supervision par les régulateurs. Cette chronique, la première de deux, aborde la question de savoir comment les modèles de risque sont mal utilisés dans la pratique par les praticiens et les superviseurs. Cette mauvaise utilisation fait échouer la gestion des risques au moment où elle est le plus nécessaire.
Les modèles de risques financiers ont été largement critiqués pour leurs échecs tant théoriques que pratiques, notamment lors de la récente crise financière. Malgré cela, toutes les propositions visant à réformer l’utilisation des modèles ont rencontré une certaine résistance. Ce n’est pas surprenant, étant donné que les modèles sont profondément ancrés dans la pratique de la finance.
Ces sentiments sont exprimés avec éloquence dans la conclusion d’un commentaire sur un récent article de Vox ;
En tant que gestionnaire de risques, je reconnais pleinement les lacunes de tout modèle basé ou calibré sur le passé. Mais j’ai également besoin de quelque chose de pratique, d’objectif et de compréhensible pour mesurer le risque, fixer et faire respecter les limites, et encourager les discussions sur les positions quand cela compte. Il est très facile de critiquer depuis le bord du chemin – veuillez proposer une alternative la prochaine fois. »
Notre objectif ici est de répondre aux défis tels que ceux mentionnés dans le commentaire de Jan-Peter en faisant des propositions spécifiques sur la façon dont les modèles de risque devraient être utilisés dans la pratique, et en identifiant comment les problèmes avec les modèles peuvent être évités. Pour un aperçu des aspects théoriques des modèles de risque, voir Danielsson (2009, 2011). Une analyse pratique des modèles peut être trouvée dans Macrae et Watkins (1998).
Nature du risque et des modèles de risque
Le risque financier est une prévision et non une mesure. Chaque prévision de risque est une évaluation incertaine des facteurs de risque sous-jacents, souvent avec de larges intervalles de confiance, résultant de l’incertitude des paramètres, de l’erreur de modèle et de la fouille des données, et contenant généralement un élément subjectif inconfortablement important. Même les estimations non paramétriques nécessiteront des choix tels que la période d’estimation.
Le risque financier ne peut être compris qu’en termes de modèle. Il peut s’agir d’un modèle formel, mais chaque fois qu’un utilisateur adopte une règle quelconque pour contrôler le risque, il doit y avoir un modèle impliqué par les règles adoptées. Par exemple, les restrictions du ratio de prêt impliquent un modèle simple selon lequel un plus grand nombre de prêts bancaires entraîne un plus grand risque. Un modèle plus complexe incorporant différents niveaux de risque de prêt et de risque opérationnel est implicite dans les pondérations de risque de Bâle II.
Malgré la dépendance au modèle et l’incertitude, les utilisateurs finaux ont tendance à percevoir les chiffres représentant le risque comme provenant d’une mesure scientifique – un Riskometer dans le langage de Danielsson ( 2009 )- plutôt que d’une procédure statistique incertaine. Les utilisateurs ont besoin de chiffres qu’ils peuvent utiliser pour convaincre leur patron, leur client ou leur régulateur. Les utilisateurs de modèles de risque préfèrent donc des prévisions de risque « objectives », alors que les prévisions accompagnées de réserves et d’incertitudes semblent moins objectives.
Nous soupçonnons que cela conduit les utilisateurs à préférer les logiciels de risque commerciaux qui fournissent un seul chiffre, non encombré d’intervalles de confiance, même si cela rend particulièrement difficile pour les utilisateurs d’évaluer la fiabilité des modèles sur étagère. Lorsque les intervalles de confiance sont estimés, leur fiabilité est souvent suspecte. Ceci est illustré succinctement par la déclaration de David Viniar, directeur financier de Goldman : « Nous voyions des choses qui étaient des mouvements de 25 écarts-types, plusieurs jours de suite » (Financial Times 2007). Cela ne peut que signifier que Goldman a grossièrement sous-estimé ses écarts types, rendant les intervalles de confiance beaucoup trop serrés.
Pourquoi les incertitudes dans les prévisions de risque sont-elles si élevées ?
Il existe plusieurs raisons pour lesquelles les incertitudes dans les prévisions de risques sont plus élevées que ce que l’on suppose habituellement :
La période d’estimation du modèle est trop courte ;
Il y a des ruptures structurelles pendant la période d’estimation ;
L’espionnage des données et l’optimisation des modèles se produisent ;
Les portefeuilles sont optimisés, ce qui maximise les erreurs ;
Il est souvent nécessaire de prévoir des risques extrêmes.
Les deux premiers problèmes étant bien connus, nous voulons nous concentrer sur les trois derniers.
Fouinage des données et optimisation des modèles
Chaque étudiant en économétrie apprend le danger du fouinage des données. Si nous effectuons une seule régression, nous obtenons des intervalles de confiance corrects pour les estimations des paramètres et les prévisions, sous réserve de certaines hypothèses de base. Si, toutefois, nous arrivons au même modèle à la suite de l’optimisation d’un certain nombre de variables explicatives et de spécifications de modèle, ces hypothèses sont violées et les intervalles de confiance seront sous-estimés. Plus le modèle est complexe et plus l’ensemble de données est petit, plus la sous-estimation est importante.
L’inférence trompeuse que peut provoquer le fouinage des données est démontrée par Sullivan et al. (1999), qui montrent que des règles de trading technique apparemment statistiquement significatives ne le sont pas si les intervalles de confiance sont calculés correctement, en tenant compte de la recherche du meilleur modèle.
Des effets similaires sont à l’œuvre dans la prévision des risques. Les modèles de risque sont régulièrement validés par des tests à rebours, c’est-à-dire en examinant la manière dont un modèle prévoit les résultats du marché qui se sont déjà produits. Si le modèle donne de mauvais résultats, il est modifié, et le résultat final est certain de donner de bons résultats en échantillon, sur la période de back-testing.
Ces approches courantes de la modélisation du risque nous renseignent davantage sur le niveau d’optimisation du modèle que sur la façon dont le modèle se comportera hors échantillon à l’avenir. La plupart des modèles de risque en pratique nous semblent accorder trop d’importance à leur capacité à s’adapter aux événements passés, plutôt qu’à la prévision du risque hors échantillon. Les modèles de risque doivent être parcimonieux et testés sur une variété de turbulences du marché s’ils veulent minimiser le problème de l’espionnage des données et de l’optimisation des modèles. Le modèle le plus performant en matière de prévision a peu de chances d’être le meilleur pour saisir les événements historiques avec une grande précision.
Cela impose une limite fondamentale à ce que les systèmes de gestion des risques peuvent réaliser, en particulier en cas de crise, car les modèles parcimonieux ne peuvent fournir une grande précision, mais les modèles non parcimonieux sont susceptibles d’échouer hors échantillon.
Optimisation du portefeuille et maximisation de l’erreur
Un problème connexe découle de l’utilisation de modèles de risque dans l’optimisation de portefeuille et le contrôle du risque. Lorsque les modèles de risque sont une entrée directe dans les décisions de trading, fournissant des contraintes dures sur les positions risquées, le processus de trading sous-jacent et les portefeuilles s’adapteront selon toute probabilité aux faiblesses du modèle et les exploiteront.
Ce problème se pose dans la mesure où les traders optimisent les portefeuilles en vue d’obtenir un faible risque déclaré (ou, de manière équivalente, une faible utilisation du capital) et des rendements élevés, ce qui fait que les décisions de trading sont biaisées en faveur des actifs présentant un risque sous-estimé. En d’autres termes, le trader maximise l’exposition à la partie de l’univers des actifs dont les prévisions de risque sont biaisées, maximisant ainsi l’impact que cette erreur a sur le portefeuille. Cette maximisation de l’erreur peut affecter les positions de trading individuelles, les institutions et même le système financier dans son ensemble, comme l’illustre la récente crise.
Avant la crise, de nombreux produits de crédit structurés, tels que certaines tranches de CDO, avaient des notations de crédit AAA non méritées. Comme de nombreux investisseurs percevaient à juste titre le risque de ces tranches AAA comme plus élevé que celui des obligations d’entreprise AAA, leurs rendements étaient généralement un peu plus élevés que ceux des obligations d’entreprise AAA. Cela a rendu ces tranches attrayantes pour les investisseurs moins avertis qui évaluaient le risque uniquement sur la base des notations de crédit.
Ce n’est pas la taille du biais de tarification ni l’ampleur de l’événement qui est le principal coupable ici ; le marché des CDO représente une part relativement faible du total des actifs financiers. Le problème est que la présence de contraintes très strictes basées sur des modèles de risque inexacts (et la maximisation des erreurs qui en découle) a motivé certaines institutions financières à acquérir de grandes expositions à ces actifs. Cela a conduit à des pertes concentrées ayant des conséquences systémiques dommageables.
La maximisation de l’erreur, en tant que gestion active du risque, conduit à une volatilité réduite et à des queues plus larges. Le risque lié aux événements courants est mieux géré, au détriment d’événements extrêmes plus importants et plus fréquents. Plus les modèles de risque sont rigoureux pour contraindre les positions, plus les erreurs seront maximisées et plus les conséquences seront dramatiques lorsque les erreurs seront finalement révélées.
Tous les modèles de risque contiennent des erreurs et sont donc vulnérables à la maximisation des erreurs. Plus un modèle est utilisé largement et plus une contrainte est serrée, plus la maximisation des erreurs est grave. Cela plaide en faveur de l’hétérogénéité des modèles de risque. Dans le pire des cas, lorsqu’un modèle ou une approche unique se voit conférer une force réglementaire et est appliqué comme une contrainte dure à de nombreux portefeuilles, un petit problème dans les réglementations micro-prudentielles peut être élevé à un niveau systémique.
Les gestionnaires de risques sont bien conscients du potentiel de maximisation des erreurs. Cependant, nous soupçonnons que ce phénomène n’est pas bien compris par les cadres supérieurs ni correctement pris en compte par les concepteurs des réglementations financières.
Cela impose une deuxième limite fondamentale à ce qu’un système de risque peut être censé réaliser, car les systèmes de risque utilisés pour contraindre les portefeuilles auront été compromis par l’optimisation implicite des portefeuilles pour contenir des actifs pour lesquels les systèmes de risque sous-estiment le risque. Les systèmes de risque qui ont été utilisés pour contraindre les positions se révéleront toujours peu fiables en cas de crise.
Prévisions des risques extrêmes
Le plus grand besoin de modèles se situe peut-être dans la prévision du risque extrême ou du risque de queue, en particulier pendant les périodes de crise financière et d’agitation extrême du marché. Il s’agit toutefois du domaine où les modèles de risque sont les moins fiables, car la taille effective de l’échantillon d’événements comparables est très faible. Au pire, il peut y avoir une observation ou même zéro lorsque nous souhaitons considérer des événements non encore vus.
Au cours du dernier demi-siècle, nous avons observé moins de 10 épisodes de turbulences extrêmes sur les marchés internationaux. Chacun de ces événements est essentiellement unique, et apparemment mû par des causes sous-jacentes différentes. Essayer de se faire une idée globale du processus statistique des données pendant ces épisodes de moins de 10 épisodes de turbulences, tous avec des causes sous-jacentes différentes est difficile, voire impossible. S’il est possible de construire un modèle adapté à 9 événements de crise d’affilée, rien ne garantit qu’il sera performant lors du 10e.
Il ne semble pas non plus probable que nous puissions obtenir beaucoup d’informations sur la dynamique des prix pendant la tourmente en utilisant les données hors crise qui constituent la majeure partie des informations disponibles, car il existe de nombreuses preuves que la dynamique du marché est très différente en temps de crise. La tradition du marché suggère qu’en temps de crise, les traders s’appuient davantage sur des règles empiriques simples (telles que toutes les actions ont un bêta de un », ou encore que le cash est roi ») qu’en temps normal, plus nuancé. Cela est confirmé par des études universitaires, telles que Ang et al. (2002), qui montrent que les corrélations atteignent un pendant les crises (manifestation d’une dépendance non linéaire), en raison des incitations à échanger des actifs risqués contre des actifs sûrs lorsque les contraintes de risque s’appliquent, provoquant une rétroaction entre un risque toujours plus élevé et des contraintes plus fortes (voir Danielsson et al. 2010).
Il s’agit de la troisième limite fondamentale à ce que l’on peut attendre d’un système de risque. Quelle que soit la quantité de données dont nous disposons, il n’y en a jamais assez pour estimer les queues de manière fiable. C’est pourquoi on peut s’attendre à ce que les modèles de risque extrême échouent pendant les turbulences ou les crises du marché.
Dans notre prochaine colonne, nous examinons comment les défauts intrinsèques des modèles de risque importent pour leurs quatre principales utilisations. Nous faisons également quelques suggestions sur la manière dont l’industrie financière et les superviseurs devraient utiliser les modèles dans la pratique.
Commentaires fermés sur Une autre raison pour le brevet de l’UE
À peine 20 % des brevets européens sont validés dans les petits États membres de l’UE – et cette part est en baisse. Cette colonne soutient que les faibles taux de validation sont problématiques pour deux raisons. Ils mettent les entreprises à l’abri de la concurrence technologique et ils rendent un pays moins attractif pour les innovateurs étrangers. Il conclut que l’introduction du brevet de l’UE résoudrait ces problèmes.
Dans quelques semaines, le Conseil européen décidera de la mise en œuvre du brevet européen. C’est la dernière chance dans un avenir prévisible de sortir de l’impasse dans laquelle se trouvent les négociations sur l’harmonisation du droit des brevets. Suite aux nombreuses objections à la réforme du droit des brevets dans le passé, l’Espagne et l’Italie demandent cette fois que les brevets de l’UE soient traduits en espagnol et en italien, en plus des trois langues européennes officielles, l’anglais, le français et l’allemand.
Actuellement, un brevet européen est en fait un panier de brevets nationaux. La validation d’un brevet européen dans un pays nécessite la traduction du brevet et le paiement de taxes de validation et de renouvellement (Danguy et van Pottelsberghe 2010 et Harhoff et al. 2009). Non seulement cela rend le système actuel coûteux, mais cela le biaise également en faveur des grands pays. Le brevet de l’UE remplacerait le panier de brevets par un brevet unique valable dans toute l’UE.
De nouvelles données montrent que la part des brevets européens validés dans les petits États membres de l’UE est en forte baisse. Nous soutenons que de faibles taux de validation réduisent la concurrence technologique et rendent un pays moins attractif pour les innovateurs étrangers. Pour ces raisons, le brevet de l’UE profiterait particulièrement aux petits États membres.
Des taux de validation en baisse
Les brevets européens ne sont souvent pas validés dans les petits pays membres. Par exemple, en 2008, seulement 18 % des brevets européens ont été validés en Suède, et seulement 24 % ont été validés aux Pays-Bas. La proportion de brevets européens protégés dans les petits États membres a diminué à un rythme régulier.
Les brevets européens dominent dans les petits pays
Les brevets européens sont plus importants que les brevets nationaux dans la plupart des pays européens. La première colonne du tableau 2 indique la part des brevets européens dans l’ensemble des brevets nouvellement délivrés. Dans les quatre plus grands pays, la part des brevets européens est d’environ 80 %, alors qu’elle dépasse généralement 90 % dans les autres États fondateurs. La plupart des adopteurs tardifs (panneau de droite) s’appuient également fortement sur les brevets européens. La Finlande et le Danemark ont des parts relativement faibles de brevets européens – mais elles continuent de croître.
La deuxième colonne affiche la part de validation des brevets européens pour chaque pays. Les pays qui ont une faible part de validation s’appuient systématiquement plus fortement sur les brevets européens. La troisième colonne illustre le changement hypothétique du nombre total de brevets si le brevet de l’UE était mis en œuvre, en supposant que le brevet de l’UE porterait les parts de validation à 100 %. Sans exception, les petits États membres connaîtront une augmentation spectaculaire du nombre total de brevets, dépassant 200 %.
La mise en œuvre du brevet de l’UE ne réduira pas seulement les coûts de protection de la propriété intellectuelle, il est tout aussi important qu’elle garantisse une protection juridique uniforme dans tous les États membres. Une réforme similaire, mais plus modeste, a eu lieu aux États-Unis avec la création de la Cour d’appel du circuit fédéral en 1982. Galasso et Schankerman (2010) montrent que cette réforme américaine a considérablement réduit la durée des litiges et accéléré accords de licence. Leurs résultats impliquent que l’harmonisation des procédures juridiques profitera aux entreprises innovantes.
En Europe, les faibles taux de validation forment de facto de grandes différences dans la protection des brevets. Les entreprises des petits États membres ne courent qu’un faible risque de contrefaire un brevet tant qu’elles n’opèrent pas dans les grands pays. Cela favorise un climat d’imitation plutôt que d’innovation. L’adoption du brevet européen mettra fin aux stratégies fondées sur l’imitation et incitera les entreprises des petits pays à être plus innovantes.
Un deuxième avantage du brevet de l’UE est qu’il empêche la validation stratégique destinée à éviter des poursuites judiciaires par des concurrents. Une entreprise peut choisir de ne pas valider un brevet dans les États membres où un concurrent est actif. De cette manière, l’entreprise réduit la probabilité que le concurrent s’oppose au brevet auprès de l’Office européen des brevets. Les incitations à minimiser la probabilité d’opposition sont importantes ; si l’Office des brevets décide de révoquer le brevet, le brevet sera déclaré invalide dans tous les pays. Ce serait un revers sévère pour le titulaire du brevet. Le brevet européen rendra plus difficile pour les entreprises la répartition géographique du marché. En supprimant l’option de la validation stratégique, les entreprises européennes devront innover plus rapidement pour garder une longueur d’avance sur la concurrence.
Attractivité pour les innovateurs étrangers
Lorsqu’une partie du portefeuille de brevets européens d’une entreprise n’est pas valable dans un pays donné, ce pays sera moins attrayant comme lieu d’implantation des activités de production ou de vente de l’entreprise. Le point crucial ici est la fenêtre de neuf mois pendant laquelle les brevetés peuvent décider de la validation. Passé ce délai, la portée géographique d’un brevet ne peut plus être étendue. Par conséquent, les entreprises sont inutilement limitées géographiquement par leur portefeuille de brevets.
L’introduction du brevet de l’UE permettra aux entreprises de délocaliser plus facilement leurs activités ou de vendre leur portefeuille de brevets à des entreprises étrangères. Cela améliore la répartition des connaissances au sein du marché intérieur et renforce les incitations à l’innovation, non seulement pour les entreprises européennes, mais aussi pour les multinationales américaines et japonaises.
La baisse des taux de validation des brevets européens dans les petits États membres est une évolution inquiétante. Les faibles taux de validation réduisent la concurrence technologique dans ces pays et les rendent peu attractifs pour les entreprises étrangères disposant d’un portefeuille de brevets européens. La mise en œuvre du brevet de l’UE, avec ou sans l’Italie et l’Espagne, serait une avancée importante dans l’amélioration de l’environnement européen de l’innovation.
Commentaires fermés sur Renforcer le système financier mondial est plus facile à dire qu’à faire
Monsieur, Maintenant que le président Biden a chargé ses fonctionnaires d’élaborer de nouveaux plans pour renforcer le système financier mondial, nous pouvons nous attendre à une pléthore de propositions dans la presse financière. Avant de laisser le taureau se déchaîner dans la boutique de porcelaine, puis-je suggérer une série de questions qui devraient être orientées vers toute proposition de réforme.
Premièrement, les propositions de prévention des crises futures vont-elles au-delà des déclarations insensées sur le renforcement du système financier »pour faire des recommandations spécifiques? Par exemple, explique-t-il exactement comment les systèmes juridique, réglementaire et financier seraient développés? Combien de temps faudra-t-il pour construire la capacité administrative requise et que devraient faire les nations dans l’intervalle? Et quelles conditions doivent être remplies avant la libéralisation du compte de capital et quelle forme doit-elle prendre?
Deuxièmement, la proposition fournit-elle des orientations pour guérir les crises plutôt que de se fonder uniquement sur l’élaboration de nouvelles mesures pour les prévenir? Il est peu probable que ces nouvelles mesures soient en sécurité, et avec la contagion financière, toute crise ne sera probablement pas locale dans ses conséquences. Les médecins sont formés à la fois à la prévention et à la guérison. Les médecins financiers seraient bien avisés de faire de même.
Troisièmement, comment une nouvelle institution ou organisation inciterait-elle ses pays membres à se conformer aux meilleures pratiques? Autrement dit, comment la proposition traiterait-elle le Japon (un pays qui n’a pas suivi les meilleures pratiques financières et macroéconomiques)? Quelles sont les dents de l’institution proposée? Et quelles seraient les implications probables pour la souveraineté nationale?
Quatrièmement, comment les décisions seraient-elles prises dans une nouvelle organisation? La proposition concilie-t-elle les demandes de participation d’un grand nombre de parties intéressées avec le fait que seul un processus décisionnel très réactif pourrait suivre les marchés financiers mondiaux ouverts 24 heures sur 24?
À ce jour, je n’ai vu aucune proposition qui puisse répondre de manière satisfaisante à ces quatre questions. Il semble qu’il soit plus facile de fustiger l’architecture financière internationale actuelle que de concevoir un remplacement cohérent.
Commentaires fermés sur Un multilatéralisme fragmenté?
Au milieu des attaques en cours du président américain Donald Trump, la bataille pour l’avenir du multilatéralisme a commencé. Les demandes précédentes de réformes pragmatiques se sont transformées en pressions pour la transformation en gros – voire la destruction totale – du cadre mondial des institutions multilatérales. Trump semble préférer un système »dans lequel les accords bilatéraux remplacent l’ordre multilatéral fondé sur des règles. Comme les États-Unis sont encore l’économie la plus avancée au monde (et l’une des plus importantes en termes de prix du marché) dans le monde, il pense que l’Amérique peut obtenir la meilleure offre »en négociant seul, non lié par les règles internationales – une vision qui s’étend aux militaires. affaires.
Bien que le multilatéralisme ait fait des progrès substantiels depuis la fin de la Seconde Guerre mondiale, une réforme continue est nécessaire, en raison des changements dans la structure de l’économie mondiale. À la fin des années 1990, les économies de marché émergentes avaient augmenté en taille et en parts de marché, dépassant le Quad ”(États-Unis, Canada, Union européenne et Japon), qui avait dominé l’Accord général sur les tarifs douaniers et le commerce et le successeur du GATT, l’Organisation mondiale du commerce. Un changement similaire du poids économique »a affecté le Fonds monétaire international et la Banque mondiale. Au cœur de ce changement se trouvait la croissance spectaculaire de la Chine.
Dans le cas de l’OMC, le grand nombre de pays en développement qui avaient adhéré rendaient également nécessaire un ajustement. L’incapacité de conclure le Cycle de négociations de Doha, après 14 ans de pourparlers, était un symptôme du problème. Dans les années 2010, un système est apparu dans lequel les négociations commerciales méga-régionales – surtout, celles du Partenariat transpacifique et du Partenariat transatlantique de commerce et d’investissement, et d’autres négociations minilatérales »se déroulaient en dehors du cadre de l’OMC.
Les attaques de Trump, après l’échec du Cycle de Doha, pourraient conduire à la fin d’une OMC fonctionnelle. Mais le débat sur le sort de l’OMC fait partie d’un débat plus large sur le multilatéralisme, qui comprend les Nations Unies, le G-20 et le FMI. Au risque de trop simplifier, trois systèmes alternatifs »semblent possibles.
La première alternative est un système dominé par des accords bilatéraux, dans lesquels les règles internationales et le droit international sont absents. Cela s’appliquerait non seulement au commerce, mais aussi aux nombreuses questions de réglementation derrière les frontières qui font désormais partie des négociations commerciales. Cela minimiserait également les rôles du FMI et du Conseil de stabilité financière et mettrait fin à l’effort multilatéral mené par le G20 pour empêcher une course vers le bas des stratégies d’optimisation fiscale des sociétés. Dans sa forme extrême, cette vision devient celle où règne la loi de la jungle ».
La deuxième alternative est le système actuel, dans lequel les pays utilisent le multilatéralisme mondial pour appliquer des règles communes. Ce système comprend de nombreuses organisations régionales; au sommet du système, cependant, se trouvent des institutions multilatérales mondiales telles que le FMI, la Banque mondiale et l’OMC, dans le but de formuler des règles et des normes mondiales.
Enfin, on peut envisager un système dans lequel la tentative d’établir des règles mondiales est abandonnée, mais les groupements de pays régionaux ou partageant les mêmes idées formulent leurs propres ensembles de règles. Ce type de système permettrait de tenir compte des différences de préférences des pays. En théorie, il devrait être facile de concevoir deux systèmes de réglementation différents qui reflètent, par exemple, les différentes priorités que les États-Unis et l’UE attribuent à la vie privée. Dans la pratique, cependant, la mise en œuvre de deux systèmes différents serait compliquée, étant donné l’interaction profonde entre les États-Unis et l’UE, et s’est révélée difficile dans le cas du règlement général de l’UE sur la protection des données.
Le premier système rejette tous les efforts visant à fournir des biens publics mondiaux et à gérer les retombées, y compris celles qui se sont produites au cours des dernières décennies. Les pays deviendraient des acteurs dans un jeu de représailles va-et-vient qui crée des pertes, même pour les plus forts, ce qui entraînerait également probablement un conflit militaire. C’est exactement ce que les chefs des puissances victorieuses après la Seconde Guerre mondiale ont tenté d’éviter.
Mais le rejet de la loi de la jungle »ne signifie pas que tout fonctionne bien sous les institutions et les règles existantes. Il existe une demande claire d’une certaine différenciation des règles et des normes pour tenir compte des diverses préférences.
Cela signifie-t-il que nous devrions adopter le troisième système, un multilatéralisme fragmenté, avec peu de place pour les institutions mondiales?
Une fois que l’on a réfléchi au degré d’interdépendance, non seulement des économies du monde, mais des sociétés du monde, il devient clair qu’un système fortement fragmenté serait incapable de fournir les biens et avantages publics mondiaux recherchés. Il y a certainement de la place pour des groupements régionaux ou pour des pays aux vues similaires de s’organiser. Nos institutions mondiales ne respectent souvent pas le principe de subsidiarité.
Cela dit, le besoin de règles mondiales, comme celles concernant le climat, augmentera avec les nouvelles technologies. Nous sommes au début d’une révolution cognitive qui ne peut que renforcer les défis mondiaux. La cybersécurité nécessite une action mondiale. Un domaine auquel nous commençons à peine à penser, le génie génétique, nécessitera des règles et des contraintes mondiales. Dans le domaine militaire, nous avons le traité de non-prolifération nucléaire; nous aurons bientôt besoin d’un traité visant à limiter l’utilisation de robots soldats déplacés par l’intelligence artificielle. En fait, plus généralement, l’utilisation de l’intelligence artificielle nécessitera également ce que l’on pourrait appeler une nouvelle éthique mondiale.
La coopération entre des pays aux vues similaires ou proches géographiquement devrait certainement être encouragée. Mais cela ne remplace pas les règles et normes mondiales nécessaires pour faire face aux défis actuels et émergents du monde.