Informática La Cibernética y la Inteligencia Artificial


Origen de la Cibernética


La cibernética es una ciencia nacida hacia 1942 e impulsada inicialmente por Norbert Wiener y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”. Sin embargo, cabe aclarar que se puede tomar como inicio de esta disciplina en el año 1940 con las investigaciones de Norbert Wiener y Vannevar Bush sobre las máquinas de cálculo y sobre redes eléctricas con Yuk Wing Lee. Aunque el término no será acuñado hasta 1947. En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. También, durante la década del cincuenta, William Ross Ashby propone teorías relacionadas con la inteligencia artificial.

La cibernética dio gran impulso a la teoría de la información a mediados de los 60; el computador digital sustituyó al analógico en la elaboración de imágenes electrónicas. En esos años aparece la segunda generación de computadores (con transistores en 1960) concretándose por entonces los primeros dibujos y gráficos de computador, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación.

En 1965 tuvo lugar en Stuttgart la exposición ”Computer-graphik”. Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafts de Londres.

En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada por Jorge Glusberg. Con esta muestra se inaugurarían los principios de la relación arte/imagen digital en ese país. En España la primera manifestación fue la de “Formas computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de Madrid y de Barcelona presentaron una de las muestras más completas que ha tenido lugar en España, titulada<Impulso arte computador>

Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994. Es importante aclarar que ya por los 1960 existían algunas antecedentes. De todas formas se puede establecer que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad funcionó como soporte estético trascurren por aquellos años y rompe con la idea de lectura lineal de la obra.



Usos en la Medicina


Nano-robots

Nos encontramos con nano-robots que circulan por las arterias, robots que ayudan en las cirugías o en la cocina, hasta robots que son mascotas, juegan o acompañan a los niños y a los viejitos, o robots que realizan exploraciones planetarias o búsquedas de información o sitios en internet.


El quirófano robotizado


Donde se encuentran el robot y un conjunto de sensores que ofrecen la información al cirujano.



Originen de la Inteligencia Artificial

Los juegos matemáticos antiguos, como el de las Torres de Hanói, muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles.

Cerca de 300 a. C., Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas.

En 250 a. C. Ctesibio de Alejandría construyó la primera máquina autocontrolada, un regulardor del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento.

En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.

En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente.

En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.

En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.

En 1936 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la teoría de la computabilidad.

En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de programación de alto nivel Plankalkül. Las siguientes máquinas más potentes, aunque con igual concepto, fueron la ABC y ENIAC.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término.

1950´s
En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular el pensamiento humano a través de la computación y fue coautor del primer programa para jugar ajedrez.

En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas.

En 1956 se dio el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por John McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

Década de 1980

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigaciones enormes y diferenciadas. Dichos atributos del agente inteligente son:

Tiene actitudes mentales tales como creencias e intenciones.

Tiene la capacidad de obtener conocimiento, es decir, aprender.

Puede resolver problemas, incluso descomponiendo problemas complejos en otros más simples.

Capaz de realizar operaciones más complejas.

Entiende. Posee la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.

Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)

Conoce los límites de sus propias habilidades y conocimientos.

Puede distinguir a pesar de la similitud de las situaciones.

Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.

Puede generalizar.

Puede percibir y modelar el mundo exterior.

Puede entender y utilizar el lenguaje y sus símbolos.

Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.

Década de 1990

En los 90 surgen los agentes inteligentes al paso de los años eso fue evolucionando.

Década de 2000

El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot más humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio.
Década de 2010

Muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»:

2010: El programa Suzette ganó el premio Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium.

2011: Un ordenador de IBM gana el concurso de preguntas y respuestas 'Jeopardy!': El ordenador de IBM Watson ha salido victorioso de su duelo contra el cerebro humano. La máquina ha ganado el concurso de preguntas y respuestas Jeopardy!, que emite la cadena de televisión estadounidense ABC, al imponerse a los dos mejores concursantes de la historia del programa. Watson les ha vencido en la tercera ronda, contestando preguntas que le obligaban a pensar como una persona.

2014: Un ordenador ha logrado superar con éxito el test de turing: Un ordenador ha logrado superar con éxito el test de Turing haciendo creer a un interrogador que es una persona quien responde sus preguntas- en un certamen organizado en Londres por la Universidad de Reading (Reino Unido). El ordenador, con el programa Eugene desarrollado en San Petersburgo (Rusia), se ha hecho pasar por un chico de 13 años, y los responsables de la competición consideran que es un “hito histórico de la inteligencia artificial”.

2016: Un ordenador de Google vence al campeón mundial de un juego milenario “Go”: Un programa informático desarrollado por la compañía británica Google DeepMind había conseguido vencer, por primera vez, a un campeón profesional de un milenario juego de origen oriental llamado Go. El reto era enorme para una máquina, ya que la prueba de estrategia encierra una gran complejidad.


Usos de la inteligencia artificial en Medicina


Ayuda al diagnóstico y al tratamiento

La inteligencia artificial le da a las máquinas la capacidad de “razonar y aprender”. Dos capacidades que son de gran utilidad en el diagnóstico clínico. Por ejemplo, un programa informático puede analizar la foto de una mancha en la piel y comparando con su base de datos establecer las probabilidades de que sea un melanoma. Aplicaciones parecidas se están desarrollando para otras muchas enfermedades, aunque de momento la IA complementa y afianza el diagnóstico de los médicos.

La planificación del tratamiento también sería otro punto fuerte de la IA, basándose en toda la información del paciente y el desarrollo de miles de casos parecidos podrían planificarse el tratamiento más eficaz.
Cuidadores robóticos.

¿Una enfermera robótica? Parece que será una de las claves de la asistencia a ancianos y enfermos dependientes en el futuro. De momento ya se han desarrollado mascotas robóticas con fines terapéuticos para ayudar a los pacientes de Alzheimer. Las mascotas robóticas estimulan las funciones cerebrales de los pacientes retrasando los problemas cognitivos que a su vez mejoran la calidad de vida y reducen la dependencia de los servicios sociales.

Por otro lado, el uso de la telemedicina ya está ayudando a evitar desplazamientos innecesarios al centro médico y permitir una mayor autonomía personal.

Aliviar la carga de los médicos

Las pruebas de análisis, las radiografías, las tomografías computarizadas, la entrada de datos y otras tareas mundanas se pueden realizar de forma más rápida y precisa si las llevan a cabo robots. La cardiología y la radiología son dos ejemplos de disciplinas donde la cantidad de datos para analizar pueden resultar abrumadoras.

Quizás en un futuro los casos sencillos queden exclusivamente en manos de la IA y los médicos humanos solo se ocupen de los más complicados.

Desarrollo de fármacos

Conseguir nuevos medicamentos eficaces mediante la realización de ensayos clínicos puede llevar más de una década y costar miles de millones. Por tanto, agilizar el proceso gracias al uso de la IA podría literalmente cambiar el mundo.

En la última crisis del ébola, se utilizó un programa impulsado por AI para analizar medicamentos existentes que podrían rediseñarse para combatir la enfermedad. El programa encontró dos medicamentos que pueden reducir la infectividad del ébola en un día, cuando un análisis de este tipo suele llevar meses o años, una diferencia que posiblemente salvó miles de vidas.


Ventajas y desventajas de la Cibernética

Ventajas

La reducción de las jornadas laborales; los trabajos complejos o rutinarios pasarían a ser de las máquinas. Además, la cibernética brinda un gran aporte al campo medicinal.

Un conocimiento mayor de cómo funcionan los sistemas complejos podría llevar a la solución de problemas también complejos como la criminalidad en las grandes ciudades.


Desventajas

Reemplazo de mano de obra humana por mano de obra robótica.
Eventualmente aumentaría la desigualdad social, favoreciendo a quienes tengan los recursos para adquirir y utilizar máquinas.

Los países más industrializados ejercerían un control aun mayor sobre los países menos tecnologizados, que se harían peligrosamente dependientes de los primeros.


Ventajas y desventajas de la Inteligencia Artificial

Ventajas

En el ámbito laboral reduce los costos y salarios adicionales.

Por resultar un atractivo, conlleva a generar más ingresos.

Se han desarrollado aplicaciones que realizan tareas que el hombre nunca hubiera podido realizar debido a su complejidad.

Puede predecir situaciones a largo plazo.

Reduce el tiempo que consume realizar cierta actividad.

Lograr grandes hallazgos y avances.

Desventajas

Por ser software, requieren de constantes actualizaciones (mantenimiento).

Realizar estos sistemas expertos requiere de mucho tiempo y dinero.

Crear máquinas que sean autosuficientes y puedan ir desplazando a la raza humana.

El uso irracional y exagerado de esta tecnología podría conllevar a la dominación de las máquinas sobre el hombre, como también llegar a depender mucho de ellas.

El hombre se siente menos importante cuando una máquina o un sistema “lo supera”.

Comentarios

Entradas populares