Berliner Boersenzeitung - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 3.816944
AFN 72.88289
ALL 98.56021
AMD 411.088392
ANG 1.875083
AOA 947.753932
ARS 1065.433687
AUD 1.669672
AWG 1.870567
AZN 1.755397
BAM 1.956683
BBD 2.100828
BDT 124.334913
BGN 1.95422
BHD 0.391922
BIF 3076.158601
BMD 1.039204
BND 1.41201
BOB 7.204801
BRL 6.407079
BSD 1.040434
BTN 88.612136
BWP 14.390871
BYN 3.404536
BYR 20368.397807
BZD 2.092524
CAD 1.499157
CDF 2982.515704
CHF 0.933954
CLF 0.037408
CLP 1032.189031
CNY 7.585462
CNH 7.594217
COP 4560.920735
CRC 528.338427
CUC 1.039204
CUP 27.538905
CVE 110.313721
CZK 25.166428
DJF 185.272021
DKK 7.457629
DOP 63.126361
DZD 140.110689
EGP 53.077134
ERN 15.58806
ETB 132.441484
FJD 2.411783
FKP 0.823031
GBP 0.829545
GEL 2.920329
GGP 0.823031
GHS 15.293945
GIP 0.823031
GMD 74.822504
GNF 8988.970025
GTQ 8.016541
GYD 217.664613
HKD 8.075841
HNL 26.428927
HRK 7.454112
HTG 136.051397
HUF 412.862741
IDR 16835.00039
ILS 3.805586
IMP 0.823031
INR 88.45964
IQD 1363.001977
IRR 43737.499843
ISK 145.124956
JEP 0.823031
JMD 162.421734
JOD 0.736897
JPY 163.314013
KES 134.483219
KGS 90.410684
KHR 4172.70236
KMF 484.39899
KPW 935.282992
KRW 1509.786489
KWD 0.320282
KYD 0.867054
KZT 542.774942
LAK 22766.850158
LBP 93168.217281
LKR 308.079029
LRD 189.359987
LSL 19.174153
LTL 3.068499
LVL 0.628604
LYD 5.109306
MAD 10.468224
MDL 19.153814
MGA 4905.11917
MKD 61.50653
MMK 3375.293957
MNT 3531.214954
MOP 8.326337
MRU 41.431298
MUR 48.686326
MVR 16.003624
MWK 1804.179464
MXN 20.944792
MYR 4.665946
MZN 66.409009
NAD 19.174153
NGN 1609.737431
NIO 38.287278
NOK 11.814897
NPR 141.774841
NZD 1.844052
OMR 0.399998
PAB 1.040404
PEN 3.880951
PGK 4.220905
PHP 60.85784
PKR 289.900826
PLN 4.269595
PYG 8122.665579
QAR 3.793175
RON 4.97685
RSD 116.987308
RUB 105.862789
RWF 1440.960144
SAR 3.903854
SBD 8.712224
SCR 14.491147
SDG 625.082946
SEK 11.489413
SGD 1.410777
SHP 0.823031
SLE 23.685413
SLL 21791.590791
SOS 594.662636
SRD 36.499991
STD 21509.42403
SVC 9.104108
SYP 2611.031403
SZL 19.16865
THB 35.60781
TJS 11.366418
TMT 3.647606
TND 3.313695
TOP 2.433922
TRY 36.60024
TTD 7.067189
TWD 33.994856
TZS 2501.883206
UAH 43.731314
UGX 3823.688752
USD 1.039204
UYU 46.551007
UZS 13423.928747
VES 53.489974
VND 26447.74103
VUV 123.376377
WST 2.8711
XAF 656.224724
XAG 0.035227
XAU 0.000398
XCD 2.808501
XDR 0.797652
XOF 656.246835
XPF 119.331742
YER 260.19072
ZAR 19.280507
ZMK 9354.08592
ZMW 28.793193
ZWL 334.623254
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

(H.Schneide--BBZ)