jueves, 30 junio 2022 19:17

Los robots con excesiva confianza en sí mismos pueden ser muy indisciplinados

Hacer que las computadoras sean menos seguras de sus capacidades, que tengan menos confianza en sí mismas, podría impedir que llenen, por ejemplo, Facebook de noticias falsas y que las máquinas sean más seguras para realizar su trabajo.

La confianza en tus propias habilidades es generalmente una cosa buena, mientras seas consciente de cuándo es hora de pedir ayuda. A medida que construimos software cada vez más inteligente, es posible que uno desee aplicar su propio pensamiento a las máquinas. Un experimento que explora el sentido del robot de su propia utilidad podría ayudar a guiar cómo se construyen las inteligencias artificiales futuras.

Una inteligencia artificial con demasiada confianza en sí misma, o sobreconfiada, puede causar todo tipo de problemas, dice Dylan Hadfield-Menell de la Universidad de California, Berkeley. Tomemos los algoritmos de newsfeed de Facebook, por ejemplo. Estos están diseñados para sugerir artículos y mensajes que la gente quiere ver y compartir. Sin embargo, siguiendo este mandato sin cuestionamientos, han terminado llenando las páginas de algunas personas con noticias falsas.

Para Hadfield-Menell y sus colegas, la respuesta es hacer que las inteligencias artificiales busquen y acepten la supervisión humana. “Si Facebook tuviera este pensamiento, es posible que no hubiéramos tenido un problema con noticias falsas“, dice.

En lugar de proponer el artículo que piensa que los usuarios de Facebook quieren ver, un algoritmo que no tuviera tanta confianza en sus habilidades probablemente que se habría aferrado a un mejor juicio de tipo humano.

Un juego: Off-switch

El equipo de Berkeley diseñó un modelo matemático de una interacción entre seres humanos y robots llamado “juego off-switch” para explorar la idea de una computadora de “confianza en sí misma”.

En este juego teórico, un robot con un interruptor de apagado se le da una tarea que debe hacer. Un humano es entonces libre de presionar el interruptor de apagado del robot cuando lo desee, pero el robot puede optar por desactivar su interruptor para que la persona no pueda apagarlo.

Los robots daban un alto grado de “confianza” de que lo que estaban haciendo era útil nunca dejaría que el humano lo desactivara, porque trataban de maximizar el tiempo dedicado a hacer la tarea. En cambio, un robot con poca confianza siempre dejaría que un ser humano lo desconectara, aunque estuviera haciendo un buen trabajo.

Sin embargo, Hadfield-Menell no cree que deberíamos hacer una inteligencia artificial demasiado insegura. Si un automóvil autónomo conduce a un niño pequeño a la escuela, el coche nunca debe permitir que el niño tome el control, por ejemplo. En este caso, la inteligencia artificial debe confiar en que sus propias habilidades superan a las del niño, cualquiera que sea la situación, y se niegan a dejar que el niño lo apague. El robot siempre puede darle una buena descarga al niño maleducado, para que se esté quieto.

Los robots con más confianza lograrán un equilibrio entre los dos extremos, dice Hadfield-Menell.

Marco vital

Las inteligencias artificiales que se niegan a dejar que los humanos las apaguen pueden parecer extravagantes, pero tales consideraciones deben ser críticas para cualquier persona que fabrique robots que trabajen junto a los humanos, dice Marta Kwiatkowska de la Universidad de Oxford.

Máquinas como automóviles sin conductor y bomberos robot se les pedirá que tomen decisiones sobre la seguridad humana, por lo que es vital que el marco ético para estas decisiones se ponga en marcha más pronto que tarde, dice ella.

El juego off-switch es solo el comienzo, dice Hadfield-Menell. Planea explorar cómo cambia la toma de decisiones de un robot cuando tiene acceso a más información sobre su propia utilidad. Por ejemplo, un robot que prepare café podría considerar su tarea más útil por la mañana.

En última instancia, espera que su investigación conduzca a la inteligencia artificial a que sea más predecible y a que tome decisiones que sean más fáciles de entender para los seres humanos. “Si estás enviando un robot al mundo real, quieres tener una buena idea de lo que está haciendo“, dice.


- Publicidad -