Berliner Boersenzeitung - Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

EUR -
AED 3.873085
AFN 71.98403
ALL 98.091865
AMD 410.865926
ANG 1.906142
AOA 961.670233
ARS 1051.538092
AUD 1.632295
AWG 1.89276
AZN 1.796773
BAM 1.955638
BBD 2.135523
BDT 126.389518
BGN 1.958718
BHD 0.396967
BIF 3123.440963
BMD 1.054463
BND 1.417882
BOB 7.308394
BRL 6.112667
BSD 1.057612
BTN 88.859931
BWP 14.458801
BYN 3.461213
BYR 20667.465977
BZD 2.131923
CAD 1.486845
CDF 3021.035587
CHF 0.936297
CLF 0.037463
CLP 1028.384713
CNY 7.626405
CNH 7.630566
COP 4744.106555
CRC 538.255361
CUC 1.054463
CUP 27.943258
CVE 110.255856
CZK 25.271148
DJF 188.334381
DKK 7.463529
DOP 63.724715
DZD 140.438353
EGP 51.981689
ERN 15.816938
ETB 128.080678
FJD 2.399904
FKP 0.832305
GBP 0.835681
GEL 2.883997
GGP 0.832305
GHS 16.895599
GIP 0.832305
GMD 74.867216
GNF 9114.244125
GTQ 8.168323
GYD 221.171657
HKD 8.209133
HNL 26.709785
HRK 7.521754
HTG 139.038469
HUF 408.314303
IDR 16764.161957
ILS 3.948029
IMP 0.832305
INR 89.078624
IQD 1385.485097
IRR 44384.968904
ISK 145.147177
JEP 0.832305
JMD 167.96607
JOD 0.747724
JPY 162.746281
KES 136.968641
KGS 91.215016
KHR 4272.645655
KMF 491.985906
KPW 949.015895
KRW 1471.950676
KWD 0.32429
KYD 0.881427
KZT 525.596411
LAK 23240.072622
LBP 94711.445261
LKR 308.984375
LRD 194.603861
LSL 19.241504
LTL 3.113554
LVL 0.637834
LYD 5.165572
MAD 10.544126
MDL 19.217406
MGA 4919.592002
MKD 61.604891
MMK 3424.85323
MNT 3583.063688
MOP 8.480797
MRU 42.220499
MUR 49.781576
MVR 16.291845
MWK 1833.947905
MXN 21.463322
MYR 4.713979
MZN 67.384089
NAD 19.241504
NGN 1756.545202
NIO 38.916773
NOK 11.69185
NPR 142.176209
NZD 1.797139
OMR 0.405466
PAB 1.057612
PEN 4.015067
PGK 4.252647
PHP 61.930171
PKR 293.652946
PLN 4.319842
PYG 8252.315608
QAR 3.85558
RON 4.982551
RSD 116.987298
RUB 105.311966
RWF 1452.579533
SAR 3.960703
SBD 8.847383
SCR 14.594154
SDG 634.2631
SEK 11.576538
SGD 1.416885
SHP 0.832305
SLE 23.83472
SLL 22111.557433
SOS 604.449871
SRD 37.238876
STD 21825.245831
SVC 9.254233
SYP 2649.368641
SZL 19.234405
THB 36.739624
TJS 11.274465
TMT 3.701164
TND 3.336823
TOP 2.469661
TRY 36.323111
TTD 7.181404
TWD 34.245573
TZS 2813.266686
UAH 43.686277
UGX 3881.678079
USD 1.054463
UYU 45.386236
UZS 13537.877258
VES 48.222799
VND 26772.804141
VUV 125.187913
WST 2.943628
XAF 655.902604
XAG 0.034867
XAU 0.000411
XCD 2.849738
XDR 0.796734
XOF 655.902604
XPF 119.331742
YER 263.483869
ZAR 19.17963
ZMK 9491.432086
ZMW 29.037592
ZWL 339.536511
  • AEX

    -11.9800

    862.5

    -1.37%

  • BEL20

    -77.1200

    4160.15

    -1.82%

  • PX1

    -41.6700

    7269.63

    -0.57%

  • ISEQ

    -96.1300

    9713.24

    -0.98%

  • OSEBX

    18.6800

    1445.01

    +1.31%

  • PSI20

    53.5500

    6428.13

    +0.84%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -132.9600

    2802.09

    -4.53%

  • N150

    -1.3300

    3313.22

    -0.04%

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement
Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement / Photo: ANTHONY WALLACE - AFP

Les géants de l'IA au défi d'encadrer une technologie en perpétuel développement

Le deuxième "sommet" mondial sur l'intelligence artificielle (IA) s'est conclu mercredi à Séoul sur un engagement collectif à encadrer les dangers de cette technologie, mais la vitesse folle avec laquelle elle se développe leur promet bien des difficultés.

Taille du texte:

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l'américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé "Seoul AI Business Pledge" ("Engagement de Séoul des entreprises sur l'IA").

En parallèle, plus d'une douzaine de pays, dont les Etats-Unis et la France, ont convenu de travailler ensemble contre les menaces posées par l'IA de pointe notamment les "risques graves", selon un communiqué commun de ces pays.

Ces risques pourraient inclure un système d'IA aidant "les acteurs non-étatiques à faire progresser le développement, la production, l'acquisition ou l'utilisation d'armes chimiques ou biologiques", ou pouvant "échapper à la surveillance humaine, notamment par le contournement des mesures de protection, la manipulation et la tromperie, ou la réplication et l'adaptation autonomes", selon ce communiqué.

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l'IA, en s'appuyant sur le consensus atteint lors du premier "sommet" mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).

Ils ont notamment promis de définir les risques "jugés intolérables", et ce que les entreprises feront pour les prévenir. Les signataires se sont également engagés à "ne pas développer ou déployer un modèle ou un système" dont les risques s'avéreraient trop difficiles à maîtriser.

- Se mettre au diapason -

Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l'IA, vu la vitesse foudroyante avec laquelle elle se développe.

"Je pense que c'est un très, très gros problème", avertit Markus Anderljung, du Centre pour la gouvernance de l'IA, organisme de recherche basé à Oxford, au Royaume-Uni.

"L'IA sera l'un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies", prophétise cet expert. "Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés."

Pour Michelle Donelan, la secrétaire d'Etat britannique à la Science, à l'Innovation et à la Technologie, "le rythme de développement de l'IA s'accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques".

Lors du prochain "sommet" sur l'IA, les 10 et 11 février 2025 en France, il y aura davantage d'occasions de "repousser les limites" en termes de tests et d'évaluation des nouvelles technologies, pronostique Mme Donelan.

"Simultanément, nous devons porter notre attention sur l'atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l'IA", ajoute la secrétaire d'Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l'IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles.

Les modèles d'IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.

Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos "deepfake" de dirigeants politiques.

Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA.

"De plus en plus, nous réalisons qu'une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l'intelligence artificielle. L'IA ne connaît pas de frontières", estime Rumman Chowdhury, une experte en éthique de l'IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d'IA.

Selon elle, le danger ne vient pas seulement de l'"IA galopante" des cauchemars de science-fiction, mais aussi de l'inégalité face à cette technologie, alors que l'IA est développée par "un très, très petit nombre de personnes et d'organisations" qui en récoltent les bénéfices.

Quant aux habitants des pays en développement, comme l'Inde, "ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge", regrette Mme Chowdhury.

(H.Schneide--BBZ)