Berliner Boersenzeitung - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.100124
AFN 77.023136
ALL 99.457679
AMD 432.836705
ANG 2.014756
AOA 1036.466317
ARS 1074.772809
AUD 1.636724
AWG 2.009299
AZN 1.901859
BAM 1.957294
BBD 2.257143
BDT 133.593161
BGN 1.965373
BHD 0.420723
BIF 3230.505618
BMD 1.116277
BND 1.443515
BOB 7.724965
BRL 6.057585
BSD 1.117963
BTN 93.495991
BWP 14.707579
BYN 3.658525
BYR 21879.029062
BZD 2.25333
CAD 1.513538
CDF 3204.831463
CHF 0.946042
CLF 0.037658
CLP 1039.097455
CNY 7.889862
CNH 7.893495
COP 4648.847165
CRC 579.077133
CUC 1.116277
CUP 29.58134
CVE 110.790423
CZK 25.098263
DJF 198.384891
DKK 7.459748
DOP 67.180993
DZD 147.625411
EGP 54.17231
ERN 16.744155
ETB 131.156505
FJD 2.455027
FKP 0.850111
GBP 0.840378
GEL 3.047549
GGP 0.850111
GHS 17.528318
GIP 0.850111
GMD 76.467701
GNF 9658.579884
GTQ 8.641673
GYD 233.812274
HKD 8.700096
HNL 27.851195
HRK 7.58958
HTG 147.323764
HUF 394.235591
IDR 16950.275441
ILS 4.213382
IMP 0.850111
INR 93.462187
IQD 1462.322861
IRR 46986.859872
ISK 152.293086
JEP 0.850111
JMD 175.634052
JOD 0.791103
JPY 159.175578
KES 143.999529
KGS 94.074221
KHR 4543.247411
KMF 492.669283
KPW 1004.648661
KRW 1483.163861
KWD 0.340375
KYD 0.931507
KZT 535.358661
LAK 24652.977075
LBP 99647.946206
LKR 340.292775
LRD 216.836745
LSL 19.534696
LTL 3.296076
LVL 0.675224
LYD 5.296699
MAD 10.82228
MDL 19.505703
MGA 5084.641843
MKD 61.663998
MMK 3625.62413
MNT 3793.109172
MOP 8.973344
MRU 44.332894
MUR 51.20327
MVR 17.145582
MWK 1937.857282
MXN 21.56086
MYR 4.69905
MZN 71.27423
NAD 19.540615
NGN 1806.028755
NIO 41.045521
NOK 11.826252
NPR 149.611531
NZD 1.789532
OMR 0.429734
PAB 1.117963
PEN 4.180434
PGK 4.369336
PHP 62.043233
PKR 310.430338
PLN 4.274504
PYG 8726.738818
QAR 4.063527
RON 4.974354
RSD 117.073997
RUB 102.909707
RWF 1498.043725
SAR 4.188876
SBD 9.272843
SCR 15.079716
SDG 671.446869
SEK 11.342379
SGD 1.44245
SHP 0.850111
SLE 25.503918
SLL 23407.764664
SOS 637.394488
SRD 33.324249
STD 23104.68
SVC 9.781466
SYP 2804.679362
SZL 19.520346
THB 36.991194
TJS 11.881938
TMT 3.906969
TND 3.375627
TOP 2.623025
TRY 38.039372
TTD 7.597948
TWD 35.643091
TZS 3041.230023
UAH 46.325958
UGX 4151.205575
USD 1.116277
UYU 45.925052
UZS 14215.787076
VEF 4043772.050025
VES 41.004421
VND 27438.088487
VUV 132.526647
WST 3.122743
XAF 656.48158
XAG 0.036259
XAU 0.000432
XCD 3.016794
XDR 0.82854
XOF 655.812014
XPF 119.331742
YER 279.432056
ZAR 19.65613
ZMK 10047.835808
ZMW 29.093075
ZWL 359.440736
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

(H.Schneide--BBZ)