• Inicio
  • Tecnología
  • Máquinas se programan a sí mismas: ¿es ayuda para los humanos o un riesgo?
Máquinas se programan a sí mismas: ¿es ayuda para los humanos o un riesgo?

Imagen por Ticbeat

Máquinas se programan a sí mismas: ¿es ayuda para los humanos o un riesgo?

La inteligencia artificial es cada día más eficiente y confiable al corregir errores en las líneas de código, pero aun así la intervención humana sigue siendo imprescindible.


Anteriormente, los primeros programadores escribían el código a mano, garabateaban símbolos en papel antes de convertirlos en tarjetas perforadas que eran procesadas por los ordenadores. Al pasar el tiempo, se han perfeccionado herramientas para escribir código para hacer la tarea más eficiente y con menos errores, es así que hasta el dia de hoy se ha estado enseñando a maquinas a programar a otras máquinas, tal y como propone una de las últimas investigaciones del Instituto Tecnológico de Massachusetts (MIT).

Estos avances abren debate sobre si los ordenadores están siendo autosuficientes y sobre qué papel van a tomar los humanos en la programación de los mismos.

El MIT conjunto al equipo de Intel, ha desarrollado un sistema llamado Machine Inferred Code Similarity que puede leer el código que ha escrito un humano e interpreta la orden que le está dando al ordenador. Esto quiere decir, que pueden entender el código y sugerir formas más eficientes en las que se podría programar a la maquina ofreciendo correcciones y otras formas de hacerlo más rápido.

Este sistema compara fragmentos del software con millones de otros programas con los que ha sido entrenado previamente.

Alerta Ets: Aplicación para notificar y prevenir enfermedades de
								transmisión sexual

Imagen por Gestión

Conforme los sistemas se vuelven más complejos, hace que rastrear los errores se vuelva más difícil para los humanos. “A veces, los equipos de codificadores pueden tardar días y días en solucionar un solo fallo”, explica Justin Gottschlich, director del grupo de investigación, en MIT Technology Review.

Gracias a esto, Gottschlich y sus colegas a buscaron una forma de automatizar el proceso.

Intel plantea utilizar la herramienta como un sistema de recomendación de código para desarrolladores internos. “También podría usarse para traducir el software escrito en un lenguaje antiguo a uno más moderno e incluso para que los humanos desarrollen aplicaciones para el móvil simplemente describiendo con palabras cómo quieren que sea el programa”, explica Gottschlich.

SEste enfoque puede utilizarse para que las maquinas escriban su propio código, basándose en programas preexistentes “con una mínima supervisión o participación humana”. Los programas que han trabajado con la misma idea de automatizar la programación en ordenadores tienen en común que todos parten de un input humano.

Al pasar de los años, son muchos los ejemplos: Microsoft está supervisando código muy básico escrito por máquinas en sus herramientas de desarrollo de software, Facebook trabaja con un sistema llamado Aroma que autocompleta pequeños programas y DeepMind ha desarrollado una red neuronal que puede generar versiones de algoritmos simples más eficientes que los ideados por programadores.

La intervención humana siempre es necesaria, por lo que el temor a perder el control sobre la inteligencia artificial aún sigue siendo infundado, según la opinión de los expertos.

“Los sistemas de inteligencia artificial que corrigen el código de otras máquinas lo hacen respecto a un modelo diseñado por un experto. No definen de manera autónoma qué se programa y qué no”, explica Luis González, socio responsable de Robotics en Deloitte.

Seguridad de datos personales.

Alerta Ets: Aplicación para notificar y prevenir enfermedades de
								transmisión sexual

Imagen por Aquiles Solutions

El margen que estos sistemas tienen para improvisar es limitado. “Las máquinas solo pueden tomar decisiones en el entorno para el que están diseñadas. Por lo tanto, si una máquina tiene que hacer tornillos, nunca podrá hacer otra cosa”, coincide Jaime Lagunas, responsable del área de inteligencia aplicada de Accenture en España, Portugal e Israel. “Teniendo el cuidado adecuado, no se espera, al menos con la tecnología actual, que puedan llegar a hacer daño”.

Ambos hacen hincapié en que la idea de perder el control de las máquinas sigue siendo un escenario de ciencia ficción y en que todavía no hemos llegado a un punto en que la creación de inteligencia artificial autosuficiente deba ser una preocupación real. “No quiero desmerecer lo que somos capaces de hacer con la IA, pero a día de hoy solo podemos imitar parcelas muy simples del comportamiento humano. Las máquinas son muy buenas llevando a cabo en una tarea específica, pero no en todo lo demás”, añade González.

Además, la inteligencia artificial aprende sobre algo que un humano ha definido, por eso, “muchas empresas ya están trabajando para asegurarse de que cualquier decisión de la IA está basada en comportamientos éticos por parte de los programadores de las máquinas. Sin duda, es la responsabilidad de las empresas limitar lo que pueden llegar a hacer las máquinas y cómo deben actuar conforme a criterios éticos”, señala Lagunas.


FUENTE: El País