En su libro «Rebooting AI«, Marcus y Davis describen nueve problemas que ven en la forma como se entiende actualmente la inteligencia artificial. El libro aún no está traducido a español. Su argumento es básicamente que la inteligencia artificial debe comprenderse distinto y hay que corregir varias cosas. Lo primero se refiere a que la inteligencia artificial y el «deep learning» es avaro pues requiere demasiados datos, es opaco pues se entiende poco y es frágil. Las nueve cosas específicas que indican son:
- La «sobre-atribución»: esto se puede relacionar con el problema de la impronta que describimos aquí, y se refiere a que se le atribuye demasiada inteligencia a los sistemas de inteligencia artificial.
- No es tan robusto: esto significa que los sistemas son poco robustos y se «confunden» fácilmente al hacer tareas sencillas (como cuando el calendario de google mete la información mal en varias ocasiones)
- Depende demasiado en los detalles de grandes conjuntos de datos: sin muchísimos datos bien identificados, es difícil que el sistema pueda funcionar bien
- Es fácil que tengan prejuicios sociales: por lo que se basan en datos recopilados masivamente, generalmente retienen prejuicios e interpretaciones sociales que no son adecuadas (p ej no reconoce bien caras de personas que no sean de piel blanca)
- Se generan problemas mayores como consecuencia de los anteriores: dependen demasiado de conjuntos de datos que tienen los mismos problemas de arriba, con lo que los problemas se vuelven más grandes
- Son fácilmente manipulables: si se manipulan los datos, se puede manipular el sistema
- Se amplifican los problemas: al combinar los prejuicios sociales y las grandes cantidades de datos
- Es muy fácil que termine con metas erróneas: ya sea porque interpretan simplisticamente las instrucciones o porque su sistema encuentra respuestas de otra naturaleza.
- Pueden causar mucho daño: como consecuencia de los temas descritos arriba.
Todo esto sirve para comprender mejor las limitaciones de la inteligencia artificial y ser escépticos ante su nivel de desarrollo. También sirve para desarrollar una idea más clara del tercer nivel de inteligencia artificial.