Berliner Boersenzeitung - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 3.816944
AFN 72.88289
ALL 98.56021
AMD 411.088392
ANG 1.875083
AOA 947.753932
ARS 1065.433687
AUD 1.669672
AWG 1.870567
AZN 1.755397
BAM 1.956683
BBD 2.100828
BDT 124.334913
BGN 1.95422
BHD 0.391922
BIF 3076.158601
BMD 1.039204
BND 1.41201
BOB 7.204801
BRL 6.407079
BSD 1.040434
BTN 88.612136
BWP 14.390871
BYN 3.404536
BYR 20368.397807
BZD 2.092524
CAD 1.499157
CDF 2982.515704
CHF 0.933954
CLF 0.037408
CLP 1032.189031
CNY 7.585462
CNH 7.594217
COP 4560.920735
CRC 528.338427
CUC 1.039204
CUP 27.538905
CVE 110.313721
CZK 25.166428
DJF 185.272021
DKK 7.457629
DOP 63.126361
DZD 140.110689
EGP 53.077134
ERN 15.58806
ETB 132.441484
FJD 2.411783
FKP 0.823031
GBP 0.829545
GEL 2.920329
GGP 0.823031
GHS 15.293945
GIP 0.823031
GMD 74.822504
GNF 8988.970025
GTQ 8.016541
GYD 217.664613
HKD 8.075841
HNL 26.428927
HRK 7.454112
HTG 136.051397
HUF 412.862741
IDR 16835.00039
ILS 3.805586
IMP 0.823031
INR 88.45964
IQD 1363.001977
IRR 43737.499843
ISK 145.124956
JEP 0.823031
JMD 162.421734
JOD 0.736897
JPY 163.314013
KES 134.483219
KGS 90.410684
KHR 4172.70236
KMF 484.39899
KPW 935.282992
KRW 1509.786489
KWD 0.320282
KYD 0.867054
KZT 542.774942
LAK 22766.850158
LBP 93168.217281
LKR 308.079029
LRD 189.359987
LSL 19.174153
LTL 3.068499
LVL 0.628604
LYD 5.109306
MAD 10.468224
MDL 19.153814
MGA 4905.11917
MKD 61.50653
MMK 3375.293957
MNT 3531.214954
MOP 8.326337
MRU 41.431298
MUR 48.686326
MVR 16.003624
MWK 1804.179464
MXN 20.944792
MYR 4.665946
MZN 66.409009
NAD 19.174153
NGN 1609.737431
NIO 38.287278
NOK 11.814897
NPR 141.774841
NZD 1.844052
OMR 0.399998
PAB 1.040404
PEN 3.880951
PGK 4.220905
PHP 60.85784
PKR 289.900826
PLN 4.269595
PYG 8122.665579
QAR 3.793175
RON 4.97685
RSD 116.987308
RUB 105.862789
RWF 1440.960144
SAR 3.903854
SBD 8.712224
SCR 14.491147
SDG 625.082946
SEK 11.489413
SGD 1.410777
SHP 0.823031
SLE 23.685413
SLL 21791.590791
SOS 594.662636
SRD 36.499991
STD 21509.42403
SVC 9.104108
SYP 2611.031403
SZL 19.16865
THB 35.60781
TJS 11.366418
TMT 3.647606
TND 3.313695
TOP 2.433922
TRY 36.60024
TTD 7.067189
TWD 33.994856
TZS 2501.883206
UAH 43.731314
UGX 3823.688752
USD 1.039204
UYU 46.551007
UZS 13423.928747
VES 53.489974
VND 26447.74103
VUV 123.376377
WST 2.8711
XAF 656.224724
XAG 0.035227
XAU 0.000398
XCD 2.808501
XDR 0.797652
XOF 656.246835
XPF 119.331742
YER 260.19072
ZAR 19.280507
ZMK 9354.08592
ZMW 28.793193
ZWL 334.623254
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

(Y.Yildiz--BBZ)