Berliner Boersenzeitung - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 3.831008
AFN 72.9273
ALL 98.419365
AMD 410.272296
ANG 1.872217
AOA 957.497491
ARS 1061.69363
AUD 1.666436
AWG 1.877446
AZN 1.766157
BAM 1.955191
BBD 2.097547
BDT 124.141359
BGN 1.954564
BHD 0.391978
BIF 3071.343992
BMD 1.043025
BND 1.410861
BOB 7.178765
BRL 6.347867
BSD 1.038877
BTN 88.318509
BWP 14.358531
BYN 3.399742
BYR 20443.296678
BZD 2.08825
CAD 1.497941
CDF 2993.482519
CHF 0.932344
CLF 0.037343
CLP 1030.409268
CNY 7.610327
CNH 7.604124
COP 4547.284581
CRC 524.136854
CUC 1.043025
CUP 27.640172
CVE 110.230689
CZK 25.128878
DJF 184.992418
DKK 7.459296
DOP 63.260309
DZD 140.605234
EGP 53.07248
ERN 15.64538
ETB 129.499591
FJD 2.416742
FKP 0.826057
GBP 0.829268
GEL 2.930614
GGP 0.826057
GHS 15.271247
GIP 0.826057
GMD 75.098129
GNF 8975.206315
GTQ 8.004508
GYD 217.342349
HKD 8.11093
HNL 26.370792
HRK 7.481523
HTG 135.907696
HUF 413.964244
IDR 16867.075692
ILS 3.805968
IMP 0.826057
INR 88.607612
IQD 1360.876404
IRR 43898.321706
ISK 145.106091
JEP 0.826057
JMD 162.539407
JOD 0.739607
JPY 163.153207
KES 134.118253
KGS 90.743478
KHR 4174.700554
KMF 486.180213
KPW 938.722223
KRW 1508.652523
KWD 0.3212
KYD 0.865731
KZT 545.580179
LAK 22737.922437
LBP 93028.043448
LKR 305.005062
LRD 188.55131
LSL 19.125747
LTL 3.079783
LVL 0.630915
LYD 5.104411
MAD 10.455446
MDL 19.135044
MGA 4901.474333
MKD 61.515852
MMK 3387.705621
MNT 3544.199972
MOP 8.316611
MRU 41.31514
MUR 49.225715
MVR 16.064848
MWK 1801.339303
MXN 20.937863
MYR 4.702006
MZN 66.653209
NAD 19.125747
NGN 1616.209432
NIO 38.228101
NOK 11.812523
NPR 141.310015
NZD 1.84523
OMR 0.401355
PAB 1.038877
PEN 3.868396
PGK 4.212689
PHP 61.402621
PKR 289.160894
PLN 4.262349
PYG 8100.478589
QAR 3.787121
RON 4.976902
RSD 116.994099
RUB 107.216627
RWF 1448.149239
SAR 3.917924
SBD 8.74426
SCR 14.545033
SDG 627.378049
SEK 11.510661
SGD 1.414236
SHP 0.826057
SLE 23.850842
SLL 21871.723041
SOS 593.715196
SRD 36.642529
STD 21588.518693
SVC 9.090171
SYP 2620.632713
SZL 19.121048
THB 35.692277
TJS 11.364862
TMT 3.661019
TND 3.31027
TOP 2.442868
TRY 36.68318
TTD 7.050805
TWD 34.034928
TZS 2467.232032
UAH 43.568738
UGX 3810.81382
USD 1.043025
UYU 46.335577
UZS 13393.830944
VES 53.689991
VND 26550.210048
VUV 123.830057
WST 2.881657
XAF 655.752886
XAG 0.03535
XAU 0.000398
XCD 2.818828
XDR 0.792453
XOF 655.752886
XPF 119.331742
YER 261.1475
ZAR 19.110344
ZMK 9388.488165
ZMW 28.750051
ZWL 335.853734
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

(T.Burkhard--BBZ)