Berliner Boersenzeitung - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.104356
AFN 76.945527
ALL 99.231336
AMD 432.618629
ANG 2.010722
AOA 1036.726011
ARS 1074.130668
AUD 1.641363
AWG 2.011392
AZN 1.900177
BAM 1.955432
BBD 2.252676
BDT 133.324923
BGN 1.955432
BHD 0.420421
BIF 3234.291666
BMD 1.11744
BND 1.441629
BOB 7.70955
BRL 6.162794
BSD 1.11569
BTN 93.249161
BWP 14.748226
BYN 3.651213
BYR 21901.820514
BZD 2.248877
CAD 1.517204
CDF 3208.169723
CHF 0.949813
CLF 0.037598
CLP 1037.43487
CNY 7.880073
CNH 7.870134
COP 4641.826925
CRC 578.891117
CUC 1.11744
CUP 29.612155
CVE 110.244264
CZK 25.088083
DJF 198.672632
DKK 7.466731
DOP 66.967404
DZD 147.657227
EGP 54.142816
ERN 16.761597
ETB 129.466549
FJD 2.459263
FKP 0.850996
GBP 0.838761
GEL 3.050454
GGP 0.850996
GHS 17.539701
GIP 0.850996
GMD 76.544228
GNF 9639.186978
GTQ 8.624378
GYD 233.396101
HKD 8.706365
HNL 27.675794
HRK 7.597486
HTG 147.212311
HUF 393.517862
IDR 16941.281656
ILS 4.226062
IMP 0.850996
INR 93.284379
IQD 1461.525104
IRR 47035.835678
ISK 152.262759
JEP 0.850996
JMD 175.28703
JOD 0.791704
JPY 160.715782
KES 143.92293
KGS 94.131451
KHR 4531.147742
KMF 493.181817
KPW 1005.695207
KRW 1488.976663
KWD 0.340898
KYD 0.929725
KZT 534.90939
LAK 24636.366177
LBP 99910.008054
LKR 340.395975
LRD 223.13803
LSL 19.586216
LTL 3.299509
LVL 0.675928
LYD 5.298004
MAD 10.818165
MDL 19.468338
MGA 5046.050895
MKD 61.603413
MMK 3629.400954
MNT 3797.060466
MOP 8.955716
MRU 44.337661
MUR 51.26838
MVR 17.164402
MWK 1934.436154
MXN 21.694872
MYR 4.69883
MZN 71.34836
NAD 19.586216
NGN 1831.986636
NIO 41.062277
NOK 11.71496
NPR 149.198937
NZD 1.7912
OMR 0.429669
PAB 1.11569
PEN 4.181813
PGK 4.367179
PHP 62.188869
PKR 309.994494
PLN 4.274599
PYG 8704.362807
QAR 4.067535
RON 4.972493
RSD 117.064981
RUB 103.380555
RWF 1504.017111
SAR 4.19314
SBD 9.282502
SCR 14.578258
SDG 672.172563
SEK 11.365705
SGD 1.442953
SHP 0.850996
SLE 25.530486
SLL 23432.148605
SOS 637.580078
SRD 33.752303
STD 23128.748217
SVC 9.762164
SYP 2807.601005
SZL 19.593315
THB 36.793946
TJS 11.859769
TMT 3.911039
TND 3.380564
TOP 2.617155
TRY 38.124254
TTD 7.588573
TWD 35.736828
TZS 3045.827114
UAH 46.114226
UGX 4133.222587
USD 1.11744
UYU 46.101329
UZS 14197.329642
VEF 4047984.459863
VES 41.096936
VND 27494.606824
VUV 132.664701
WST 3.125996
XAF 655.833645
XAG 0.035881
XAU 0.000426
XCD 3.019937
XDR 0.826844
XOF 655.833645
XPF 119.331742
YER 279.723102
ZAR 19.477937
ZMK 10058.30169
ZMW 29.537444
ZWL 359.815167
  • AEX

    -10.9000

    897.55

    -1.2%

  • BEL20

    -37.4300

    4215.59

    -0.88%

  • PX1

    -114.9900

    7500.26

    -1.51%

  • ISEQ

    -30.9900

    9967.18

    -0.31%

  • OSEBX

    -3.5300

    1407.43

    -0.25%

  • PSI20

    -4.0300

    6716.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.6900

    2580.84

    -0.22%

  • N150

    -51.9800

    3323.64

    -1.54%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

(U.Gruber--BBZ)