Berliner Boersenzeitung - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 3.845874
AFN 70.674066
ALL 97.848497
AMD 406.661363
ANG 1.881594
AOA 954.929054
ARS 1054.672401
AUD 1.622423
AWG 1.887346
AZN 1.780922
BAM 1.942206
BBD 2.107896
BDT 124.756771
BGN 1.954476
BHD 0.39467
BIF 3031.270778
BMD 1.047071
BND 1.405734
BOB 7.214639
BRL 6.094064
BSD 1.043963
BTN 88.001358
BWP 14.243575
BYN 3.41662
BYR 20522.593176
BZD 2.10449
CAD 1.474271
CDF 3006.140949
CHF 0.929946
CLF 0.037093
CLP 1023.501392
CNY 7.593411
CNH 7.601689
COP 4611.018329
CRC 533.450854
CUC 1.047071
CUP 27.747384
CVE 110.413563
CZK 25.282471
DJF 186.085088
DKK 7.459015
DOP 63.241086
DZD 140.285547
EGP 51.9608
ERN 15.706066
ETB 129.260624
FJD 2.387951
FKP 0.826471
GBP 0.835092
GEL 2.85865
GGP 0.826471
GHS 16.438375
GIP 0.826471
GMD 74.34189
GNF 9036.223128
GTQ 8.057448
GYD 218.417029
HKD 8.149511
HNL 26.412373
HRK 7.469029
HTG 137.020279
HUF 410.878547
IDR 16672.826935
ILS 3.815359
IMP 0.826471
INR 88.270601
IQD 1372.186651
IRR 44068.606931
ISK 145.133954
JEP 0.826471
JMD 164.856098
JOD 0.742688
JPY 160.610139
KES 135.595163
KGS 90.888485
KHR 4240.638096
KMF 491.02418
KPW 942.363575
KRW 1463.344866
KWD 0.322236
KYD 0.870027
KZT 521.281361
LAK 22998.916606
LBP 93765.214756
LKR 304.016247
LRD 188.289578
LSL 18.888537
LTL 3.091729
LVL 0.633363
LYD 5.125386
MAD 10.50579
MDL 19.079816
MGA 4899.245644
MKD 61.542117
MMK 3400.846025
MNT 3557.947475
MOP 8.368584
MRU 41.793859
MUR 49.547263
MVR 16.177003
MWK 1817.715192
MXN 21.806271
MYR 4.66732
MZN 66.896979
NAD 18.888878
NGN 1771.926971
NIO 38.490247
NOK 11.71439
NPR 140.801776
NZD 1.798952
OMR 0.40313
PAB 1.044003
PEN 3.956097
PGK 4.156765
PHP 61.72273
PKR 290.823758
PLN 4.309902
PYG 8147.130203
QAR 3.811971
RON 4.976835
RSD 117.006008
RUB 110.457098
RWF 1435.534451
SAR 3.933975
SBD 8.785545
SCR 14.239048
SDG 629.812192
SEK 11.527981
SGD 1.411719
SHP 0.826471
SLE 23.766152
SLL 21956.56198
SOS 598.400886
SRD 37.071596
STD 21672.257337
SVC 9.13506
SYP 2630.797353
SZL 18.889327
THB 36.375347
TJS 11.155425
TMT 3.675219
TND 3.316336
TOP 2.452339
TRY 36.279133
TTD 7.098383
TWD 34.02405
TZS 2769.502683
UAH 43.377879
UGX 3867.963333
USD 1.047071
UYU 44.488604
UZS 13433.921708
VES 48.773334
VND 26611.311509
VUV 124.310383
WST 2.922994
XAF 651.409933
XAG 0.034443
XAU 0.000399
XCD 2.829762
XDR 0.798595
XOF 657.034899
XPF 119.331742
YER 261.68926
ZAR 19.065697
ZMK 9424.903205
ZMW 28.788769
ZWL 337.156461
  • AEX

    -4.2200

    875.14

    -0.48%

  • BEL20

    -61.1800

    4187.13

    -1.44%

  • PX1

    -63.1400

    7194.51

    -0.87%

  • ISEQ

    -28.9100

    9606.36

    -0.3%

  • OSEBX

    -19.7200

    1452.05

    -1.34%

  • PSI20

    -23.1800

    6415.4

    -0.36%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -46.0100

    2960.9

    -1.53%

  • N150

    -33.4500

    3278.46

    -1.01%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

(B.Hartmann--BBZ)