Berliner Boersenzeitung - Estudantes são vítimas de pornografia falsa criada com IA nos EUA

EUR -
AED 3.879496
AFN 71.757131
ALL 98.290674
AMD 417.887896
ANG 1.9018
AOA 962.19481
ARS 1066.276545
AUD 1.623289
AWG 1.901191
AZN 1.790669
BAM 1.956221
BBD 2.130548
BDT 126.097119
BGN 1.955496
BHD 0.398091
BIF 3117.544274
BMD 1.056217
BND 1.418339
BOB 7.291534
BRL 6.349027
BSD 1.055222
BTN 89.103742
BWP 14.415032
BYN 3.452726
BYR 20701.856302
BZD 2.126947
CAD 1.478936
CDF 3031.34326
CHF 0.930847
CLF 0.037397
CLP 1031.892312
CNY 7.648385
CNH 7.65186
COP 4666.578649
CRC 538.923559
CUC 1.056217
CUP 27.989755
CVE 110.288197
CZK 25.256246
DJF 187.909524
DKK 7.457749
DOP 63.714608
DZD 140.858172
EGP 52.381867
ERN 15.843257
ETB 130.727772
FJD 2.392439
FKP 0.83369
GBP 0.831723
GEL 2.888761
GGP 0.83369
GHS 16.303429
GIP 0.83369
GMD 74.991114
GNF 9094.171116
GTQ 8.141712
GYD 220.69642
HKD 8.221192
HNL 26.698121
HRK 7.534271
HTG 138.343028
HUF 411.62262
IDR 16749.438885
ILS 3.844377
IMP 0.83369
INR 89.326608
IQD 1382.290743
IRR 44440.337179
ISK 145.662634
JEP 0.83369
JMD 166.256543
JOD 0.748964
JPY 158.47218
KES 137.044409
KGS 91.678667
KHR 4253.015353
KMF 492.725985
KPW 950.595042
KRW 1474.463336
KWD 0.324683
KYD 0.879385
KZT 540.393663
LAK 23158.871095
LBP 94493.975284
LKR 306.744519
LRD 189.41253
LSL 19.175133
LTL 3.118735
LVL 0.638895
LYD 5.148083
MAD 10.559821
MDL 19.321064
MGA 4927.036323
MKD 61.539109
MMK 3430.552129
MNT 3589.025847
MOP 8.458579
MRU 42.094249
MUR 49.061075
MVR 16.318516
MWK 1829.784866
MXN 21.549745
MYR 4.694896
MZN 67.47977
NAD 19.175133
NGN 1760.188127
NIO 38.829822
NOK 11.695973
NPR 142.568687
NZD 1.785644
OMR 0.406656
PAB 1.055227
PEN 3.959527
PGK 4.255016
PHP 61.998362
PKR 293.348201
PLN 4.29591
PYG 8229.730991
QAR 3.846309
RON 4.975707
RSD 116.952797
RUB 113.551418
RWF 1468.843714
SAR 3.968166
SBD 8.862286
SCR 14.639535
SDG 635.313851
SEK 11.524232
SGD 1.415088
SHP 0.83369
SLE 23.97376
SLL 22148.350702
SOS 603.026837
SRD 37.39538
STD 21861.562682
SVC 9.232942
SYP 2653.777147
SZL 19.183035
THB 36.181249
TJS 11.501983
TMT 3.707322
TND 3.333401
TOP 2.473766
TRY 36.641102
TTD 7.170508
TWD 34.330756
TZS 2788.413485
UAH 43.88443
UGX 3893.819002
USD 1.056217
UYU 45.199507
UZS 13574.148262
VES 49.890432
VND 26771.408202
VUV 125.396223
WST 2.948526
XAF 656.094999
XAG 0.034383
XAU 0.000397
XCD 2.854479
XDR 0.80717
XOF 656.094999
XPF 119.331742
YER 263.975043
ZAR 19.055409
ZMK 9507.222275
ZMW 28.463987
ZWL 340.101494
Estudantes são vítimas de pornografia falsa criada com IA nos EUA
Estudantes são vítimas de pornografia falsa criada com IA nos EUA / foto: Julia Han JANICKI, Jean-Michel CORNU - AFP

Estudantes são vítimas de pornografia falsa criada com IA nos EUA

Ao acordar em uma manhã de outubro, Ellis, uma adolescente de 14 anos do Texas, tinha várias chamadas perdidas e mensagens de texto com imagens dela nua que circulavam nas redes sociais.

Tamanho do texto:

As fotos falsas (baseadas em seu rosto real e um corpo nu sobreposto) haviam sido enviadas a colegas de sala que dificilmente poderiam imaginar o engano.

É que a Inteligência Artificial (IA) faz com que os chamados "deepfakes" (vídeos, imagens e áudios generativos que imitam a aparência e sons de uma pessoa) sejam cada vez mais realistas.

As imagens originais de Ellis e sua amiga, que também foi vítima, foram capturadas do Instagram, contou a estudante à AFP.

Outras colegas de sala também foram vítimas. Depois, as fotos foram compartilhadas pelo aplicativo Snapchat.

"Parecia real, como se os corpos (nus) parecessem corpos reais", disse a adolescente. "Lembrou que ficou muito, muito assustada".

Junto com o desenvolvimento da IA, cresce também a pornografia deepfake, com fotos e vídeos muito realistas que podem ser criados com um mínimo de esforço e dinheiro, o que provocou escândalos e casos de assédio em várias escolas dos Estados Unidos.

As autoridades tentam suprir a falta de legislação federal que proíba a prática.

"As meninas não paravam de chorar e chorar. Estão muito envergonhadas", declarou Anna McAdams, mãe de Ellis. "Não queriam ir para a escola".

- Um telefone e alguns dólares -

A prática se expandiu, embora não se saiba quanto. No final do mês, outro caso foi registrado em Nova Jersey.

"Isto ocorre com cada vez mais frequência", afirmou Dorota Mani, mãe de uma das vítimas, também de 14 anos.

Afirmou que pode haver deepfakes pornográficas na internet de uma pessoa mesmo que ela não saiba e que apenas são investigados os casos reportados pelas vítimas.

Segundo especialistas, a lei tardou em se atualizar em relação à tecnologia, apesar de já existirem casos de versões mais grosseiras de pornografia falsa há anos, frequentemente de pessoas famosas.

Agora, no entanto, qualquer pessoa com uma foto no Linkedin pode ser uma vítima.

Sabia-se "que seria utilizada desta forma", declarou à AFP Henry Farid, professor de informática na Universidade da Califórnia em Berkeley.

No mês passado, o presidente americano Joe Biden assinou um decreto sobre a IA que pede ao governo para criar barreiras "contra a produção de material de abuso sexual infantil e contra a produção de imagens íntimas não consensuais de indivíduos reais".

Em muitos casos, tem sido difícil encontrar os autores, mas isso não deveria impedir que as empresas de Inteligência Artificial e as plataformas das redes sociais prestassem contas, estima Farid.

O problema é que não existe uma lei federal que restrinja esta pornografia e apenas alguns estados aprovaram leis neste sentido.

"Embora se sobreponha a seu rosto, o corpo não é realmente seu", disse Renee Cummings, especialista em ética da IA.

Isto pode criar uma "contradição na lei", explicou à AFP a professora da Universidade de Virgínia, já que é possível argumentar que as leis existentes que proíbem a distribuição de fotografias sexuais não autorizadas não se aplicam às deepfakes.

Além disso, qualquer um que tiver "um 'smartphone' e alguns dólares" pode fazer as fotos.

A pornografia deepfake "pode destruir a vida de alguém", reconheceu Cummings, citando vítimas que sofrem com ansiedade, depressão e trastorno de estresse pós-traumático.

(K.Müller--BBZ)