Dile a tu gatito lo que piensas por dentro: el efecto de la caja negra
Tecnología

Dile a tu gatito lo que piensas por dentro: el efecto de la caja negra

El hecho de que los algoritmos avanzados de IA sean como una caja negra (1) que tira un resultado sin revelar cómo se obtuvo preocupa a unos y molesta a otros.

En 2015, se le pidió a un equipo de investigación del Hospital Mount Sinai en Nueva York que usara este método para analizar una extensa base de datos de pacientes locales (2). Esta vasta colección contiene un océano de información de pacientes, resultados de pruebas, recetas y más.

Los científicos nombraron el programa analítico desarrollado durante el trabajo. Se entrenó con datos de unas 700 personas. humano, y cuando se probó en nuevos registros, demostró ser extremadamente efectivo para predecir enfermedades. Sin la ayuda de expertos humanos, descubrió patrones en los registros hospitalarios que indican qué paciente está en camino a una enfermedad, como el cáncer de hígado. Según los expertos, la eficiencia pronóstica y diagnóstica del sistema fue mucho mayor que la de cualquier otro método conocido.

2. Sistema de inteligencia artificial médica basado en bases de datos de pacientes

Al mismo tiempo, los investigadores notaron que funciona de una manera misteriosa. Resultó, por ejemplo, que es ideal para reconocimiento de los trastornos mentalescomo la esquizofrenia, que es extremadamente difícil para los médicos. Esto fue sorprendente, especialmente porque nadie tenía idea de cómo el sistema de IA podía ver tan bien la enfermedad mental basándose únicamente en los registros médicos del paciente. Sí, los especialistas quedaron muy satisfechos con la ayuda de un diagnosticador de máquinas tan eficiente, pero estarían mucho más satisfechos si entendieran cómo la IA llega a sus conclusiones.

Capas de neuronas artificiales

Desde el principio, es decir, desde el momento en el concepto de inteligencia artificial se supo, había dos puntos de vista sobre la IA. La primera sugiere que sería más razonable para ordenadores de desarrollo, que la razón de acuerdo con principios conocidos y la lógica humana, por lo que su funcionamiento interno transparente para todos. Otros creían que la inteligencia emergería más fácilmente si las máquinas aprendidas a través de la observación y la experimentación repetida.

Esto último significa invertir la programación informática típica. En lugar de que el programador escriba comandos para resolver un problema, el programa genera propio algoritmo basado en datos de muestra y el resultado deseado. Los métodos de aprendizaje automático que luego se convirtieron en los sistemas de IA más poderosos que se conocen hoy en día acaban de seguir el camino de, de hecho, la propia maquina programa.

Este enfoque permaneció al margen de la investigación de sistemas de IA en los años 60 y 70. Recién a principios de la década anterior, luego de algunos cambios y mejoras pioneras, Redes neuronales "profundas" comenzó a demostrar una mejora radical en las capacidades de percepción automatizada. 

El aprendizaje automático profundo ha dotado a las computadoras con habilidades extraordinarias, como la capacidad de reconocer palabras habladas casi con tanta precisión como un ser humano. Esta es una habilidad demasiado compleja para programarla con anticipación. La máquina debe ser capaz de crear su propio "programa" por entrenamiento en grandes conjuntos de datos.

El aprendizaje profundo también ha cambiado el reconocimiento de imágenes por computadora y ha mejorado en gran medida la calidad de la traducción automática. Hoy en día, se utiliza para tomar todo tipo de decisiones clave en medicina, finanzas, fabricación y más.

Sin embargo, con todo esto no puede simplemente mirar dentro de una red neuronal profunda para ver cómo funciona "adentro". Los procesos de razonamiento en red están integrados en el comportamiento de miles de neuronas simuladas, organizadas en docenas o incluso cientos de capas intrincadamente interconectadas..

Cada una de las neuronas en la primera capa recibe una entrada, como la intensidad de un píxel en una imagen, y luego realiza cálculos antes de generar la salida. Se transmiten en una red compleja a las neuronas de la siguiente capa, y así sucesivamente, hasta la señal de salida final. Además, existe un proceso conocido como ajuste de los cálculos realizados por neuronas individuales para que la red de entrenamiento produzca el resultado deseado.

En un ejemplo citado con frecuencia relacionado con el reconocimiento de imágenes de perros, los niveles más bajos de IA analizan características simples como la forma o el color. Los superiores tratan temas más complejos como el pelaje o los ojos. Solo la capa superior lo reúne todo, identificando el conjunto completo de información como un perro.

El mismo enfoque se puede aplicar a otros tipos de entrada que impulsan a la máquina a aprender por sí misma: sonidos que forman palabras en el habla, letras y palabras que forman oraciones en un texto escrito, o un volante, por ejemplo. movimientos necesarios para conducir un vehículo.

Al coche no le falta nada.

Se intenta explicar qué sucede exactamente en tales sistemas. En 2015, los investigadores de Google modificaron un algoritmo de reconocimiento de imágenes de aprendizaje profundo para que, en lugar de ver objetos en las fotos, los generara o modificara. Al ejecutar el algoritmo al revés, querían descubrir las características que utiliza el programa para reconocer, por ejemplo, un pájaro o un edificio.

Estos experimentos, conocidos públicamente como el título, produjeron asombrosas representaciones de (3) animales, paisajes y personajes grotescos y extraños. Al revelar algunos de los secretos de la percepción de las máquinas, como el hecho de que ciertos patrones se devuelven y repiten repetidamente, también mostraron cómo el aprendizaje profundo de las máquinas difiere de la percepción humana, por ejemplo, en el sentido de que expande y duplica artefactos que ignoramos. en nuestro proceso de percepción sin pensar. .

3. Imagen creada en el proyecto

Por cierto, por otro lado, estos experimentos han desentrañado el misterio de nuestros propios mecanismos cognitivos. Quizás está en nuestra percepción que hay varios componentes incomprensibles que nos hacen entender e ignorar algo de inmediato, mientras que la máquina repite pacientemente sus iteraciones en objetos "sin importancia".

Se llevaron a cabo otras pruebas y estudios en un intento de "comprender" la máquina. jason yosinski creó una herramienta que actúa como una sonda clavada en el cerebro, apuntando a cualquier neurona artificial y buscando la imagen que la activa con más fuerza. En el último experimento, aparecieron imágenes abstractas como resultado de "espiar" la red con las manos en la masa, lo que hizo que los procesos que tenían lugar en el sistema fueran aún más misteriosos.

Sin embargo, para muchos científicos, tal estudio es un malentendido, porque, en su opinión, para comprender el sistema, reconocer los patrones y mecanismos de un orden superior para tomar decisiones complejas, todas las interacciones computacionales dentro de una red neuronal profunda. Es un laberinto gigante de funciones y variables matemáticas. Por el momento, es incomprensible para nosotros.

¿La computadora no arranca? ¿Por qué?

¿Por qué es importante entender los mecanismos de toma de decisiones de los sistemas de inteligencia artificial avanzada? Los modelos matemáticos ya están siendo utilizados para determinar qué reclusos pueden ser puestos en libertad condicional, que se le puede dar un préstamo, y que pueden conseguir un trabajo. Aquellos que estén interesados les gustaría saber por qué esto y no otra decisión fue tomada, cuáles son sus motivos y mecanismo.

admitió en abril de 2017 en MIT Technology Review. Tommy Yaakkola, un profesor del MIT que trabaja en aplicaciones para el aprendizaje automático. -.

Hay incluso una posición legal y política de que la capacidad de estudiar y comprender el mecanismo de toma de decisiones de los sistemas de inteligencia artificial es un derecho humano fundamental.

Desde 2018, la UE ha estado trabajando en que las empresas comuniquen explicaciones a sus clientes acerca de las decisiones tomadas por los sistemas automatizados. Resulta que a veces esto no es posible, incluso con los sistemas que parecen relativamente simples, tales como aplicaciones y sitios web que utilizan la ciencia profunda para mostrar anuncios o recomendar canciones.

Los equipos que ejecutan estos servicios del programa a sí mismos, y lo hacen de una manera que no podemos entender ... Incluso los ingenieros que crean estas aplicaciones no se puede explicar completamente cómo funciona.

Añadir un comentario