Berliner Boersenzeitung - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

EUR -
AED 4.09901
AFN 76.989056
ALL 99.290141
AMD 432.192289
ANG 2.011913
AOA 1035.386702
ARS 1074.098225
AUD 1.639961
AWG 2.008793
AZN 1.901624
BAM 1.956573
BBD 2.253991
BDT 133.402737
BGN 1.953965
BHD 0.420623
BIF 3236.121309
BMD 1.115996
BND 1.44247
BOB 7.713911
BRL 6.15305
BSD 1.116341
BTN 93.301912
BWP 14.756966
BYN 3.653344
BYR 21873.525049
BZD 2.250149
CAD 1.514028
CDF 3204.025425
CHF 0.949606
CLF 0.03764
CLP 1038.602283
CNY 7.869898
CNH 7.861953
COP 4633.616123
CRC 579.218597
CUC 1.115996
CUP 29.573899
CVE 110.307124
CZK 25.054454
DJF 198.335279
DKK 7.459212
DOP 67.006489
DZD 147.641875
EGP 54.135082
ERN 16.739943
ETB 129.539788
FJD 2.455531
FKP 0.849897
GBP 0.83852
GEL 3.047105
GGP 0.849897
GHS 17.549623
GIP 0.849897
GMD 76.450036
GNF 9644.683106
GTQ 8.629489
GYD 233.528133
HKD 8.695151
HNL 27.691947
HRK 7.58767
HTG 147.295589
HUF 393.020806
IDR 16929.717789
ILS 4.225859
IMP 0.849897
INR 93.170894
IQD 1462.378108
IRR 46975.073296
ISK 152.114535
JEP 0.849897
JMD 175.389335
JOD 0.790799
JPY 160.589064
KES 144.008576
KGS 94.009848
KHR 4533.7923
KMF 492.545341
KPW 1004.395926
KRW 1488.07353
KWD 0.340469
KYD 0.930276
KZT 535.211989
LAK 24650.303003
LBP 99966.527279
LKR 340.594644
LRD 223.26426
LSL 19.597823
LTL 3.295247
LVL 0.675055
LYD 5.301286
MAD 10.824867
MDL 19.479875
MGA 5048.905452
MKD 61.626661
MMK 3624.712047
MNT 3792.154956
MOP 8.960782
MRU 44.363935
MUR 51.202327
MVR 17.142123
MWK 1935.530467
MXN 21.676597
MYR 4.692807
MZN 71.256777
NAD 19.597647
NGN 1829.620351
NIO 41.08569
NOK 11.718262
NPR 149.286016
NZD 1.789531
OMR 0.429634
PAB 1.116321
PEN 4.184198
PGK 4.369884
PHP 62.08849
PKR 310.175419
PLN 4.270192
PYG 8709.44302
QAR 4.069909
RON 4.973218
RSD 117.079418
RUB 103.062741
RWF 1504.908406
SAR 4.187915
SBD 9.27051
SCR 14.830813
SDG 671.275802
SEK 11.359865
SGD 1.44083
SHP 0.849897
SLE 25.497503
SLL 23401.876073
SOS 637.957914
SRD 33.708707
STD 23098.867655
SVC 9.76773
SYP 2803.973801
SZL 19.604926
THB 36.761326
TJS 11.866478
TMT 3.905987
TND 3.382537
TOP 2.613779
TRY 38.072924
TTD 7.592866
TWD 35.712252
TZS 3042.431049
UAH 46.142795
UGX 4135.783196
USD 1.115996
UYU 46.127615
UZS 14205.615769
VEF 4042754.77568
VES 41.018985
VND 27459.08591
VUV 132.493308
WST 3.121958
XAF 656.204651
XAG 0.035869
XAU 0.000426
XCD 3.016036
XDR 0.827327
XOF 656.207592
XPF 119.331742
YER 279.361784
ZAR 19.504527
ZMK 10045.308782
ZMW 29.554154
ZWL 359.350313
  • AEX

    -10.9000

    897.55

    -1.2%

  • BEL20

    -37.4300

    4215.59

    -0.88%

  • PX1

    -114.9900

    7500.26

    -1.51%

  • ISEQ

    -30.9900

    9967.18

    -0.31%

  • OSEBX

    -3.5300

    1407.43

    -0.25%

  • PSI20

    -4.0300

    6716.23

    -0.06%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -5.6900

    2580.84

    -0.22%

  • N150

    -51.9800

    3323.64

    -1.54%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

(A.Lehmann--BBZ)