Informática La Cibernética y la Inteligencia Artificial
Origen de la Cibernética
La cibernética
es una ciencia nacida hacia 1942 e impulsada inicialmente por Norbert Wiener y
Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en
el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos
permitirán abordar el problema del control y la comunicación en general”. Sin
embargo, cabe aclarar que se puede tomar como inicio de esta disciplina en el
año 1940 con las investigaciones de Norbert Wiener y Vannevar Bush sobre las
máquinas de cálculo y sobre redes eléctricas con Yuk Wing Lee. Aunque el
término no será acuñado hasta 1947. En 1950, Ben Laposky, un matemático de Iowa,
creó los oscilones o abstracciones electrónicas por medio de un ordenador
analógico: se considera esta posibilidad de manipular ondas y de registrarlas
electrónicamente como el despertar de lo que habría de ser denominado computer
graphics y, luego, computer art e infoarte. También, durante la década del
cincuenta, William Ross Ashby propone teorías relacionadas con la inteligencia
artificial.
La cibernética
dio gran impulso a la teoría de la información a mediados de los 60; el
computador digital sustituyó al analógico en la elaboración de imágenes
electrónicas. En esos años aparece la segunda generación de computadores (con
transistores en 1960) concretándose por entonces los primeros dibujos y
gráficos de computador, y la tercera (con circuitos integrados, en 1964) así
como los lenguajes de programación.
En 1965 tuvo
lugar en Stuttgart la exposición ”Computer-graphik”. Pero la muestra que
consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic
Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese
año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafts
de Londres.
En 1969 el Museo
Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en
Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética,
organizada por Jorge Glusberg. Con esta muestra se inaugurarían los principios
de la relación arte/imagen digital en ese país. En España la primera
manifestación fue la de “Formas computables”- 1969- “Generación automática de
formas plásticas” -1970-ambas organizadas por el Centro de Cálculo de la
Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de
Madrid y de Barcelona presentaron una de las muestras más completas que ha
tenido lugar en España, titulada<Impulso arte computador>
Las primeras
experiencias de lo que luego se llamaría net.art. se remontan al año 1994. Es
importante aclarar que ya por los 1960 existían algunas antecedentes. De todas
formas se puede establecer que las primeras experiencias donde la tecnología
informática puesta al servicio de la comunidad funcionó como soporte estético
trascurren por aquellos años y rompe con la idea de lectura lineal de la obra.
Usos en la Medicina
Nano-robots
Nos encontramos
con nano-robots que circulan por las arterias, robots que ayudan en las
cirugías o en la cocina, hasta robots que son mascotas, juegan o acompañan a
los niños y a los viejitos, o robots que realizan exploraciones planetarias o
búsquedas de información o sitios en internet.
El quirófano robotizado
Donde se encuentran el robot y un conjunto
de sensores que ofrecen la información al cirujano.
Originen de la Inteligencia
Artificial
Los juegos matemáticos antiguos, como el de
las Torres de Hanói, muestran el interés por la búsqueda de un modo resolutor,
capaz de ganar con los mínimos movimientos posibles.
Cerca de 300 a. C., Aristóteles fue el
primero en describir de manera estructurada un conjunto de reglas, silogismos,
que describen una parte del funcionamiento de la mente humana y que, al
seguirlas paso a paso, producen conclusiones racionales a partir de premisas
dadas.
En 250 a. C. Ctesibio de Alejandría construyó
la primera máquina autocontrolada, un regulardor del flujo de agua que actuaba
modificando su comportamiento "racionalmente" (correctamente) pero
claramente sin razonamiento.
En 1315, Ramon Llull tuvo la idea de que el
razonamiento podía ser efectuado de maneral artificial.
En 1847 George Boole estableció la lógica
proposicional (booleana), mucho más completa que los silogismos de Aristóteles,
pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica
booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder
de expresión y es utilizada universalmente en la actualidad.
En 1903 Lee De Forest inventa el triodo,
también llamado bulbo o válvula de vacío.
En 1936 Alan Turing publicó un artículo de
bastante repercusión sobre los "Números Calculables", un artículo que
estableció las bases teóricas para todas las ciencias de computación, y que
puede considerarse el origen oficial de la informática teórica. En este
artículo introdujo el concepto de Máquina de Turing, una entidad matemática
abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de
las computadoras digitales. Podía conceptualmente leer instrucciones de una
cinta de papel perforada y ejecutar todas las operaciones críticas de un
computador. El artículo fijó los límites de las ciencias de la computación
porque demostró que no es posible resolver problemas con ningún tipo de
computador. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su
solución, por lo que se le considera el padre de la teoría de la
computabilidad.
En 1940 Alan Turing y su equipo construyeron
el primer computador electromecánico y en 1941 Konrad Zuse creó la primera
computadora programable y el primer lenguaje de programación de alto nivel
Plankalkül. Las siguientes máquinas más potentes, aunque con igual concepto,
fueron la ABC y ENIAC.
En 1943 Warren McCulloch y Walter Pitts
presentaron su modelo de neuronas artificiales, el cual se considera el primer
trabajo del campo de inteligencia artificial, aun cuando todavía no existía el
término.
1950´s
En 1950 Turing consolidó el campo de la
inteligencia artificial con su artículo Computing Machinery and Intelligence,
en el que propuso una prueba concreta para determinar si una máquina era
inteligente o no, su famosa Prueba de Turing por lo que se le considera el
padre de la Inteligencia Artificial. Años después Turing se convirtió en el
adalid que quienes defendían la posibilidad de emular el pensamiento humano a
través de la computación y fue coautor del primer programa para jugar ajedrez.
En 1951 William Shockley inventa el
transistor de unión. El invento hizo posible una nueva generación de computadoras
mucho más rápidas y pequeñas.
En 1956 se dio el término "inteligencia
artificial" en Dartmouth durante una conferencia convocada por John
McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta
conferencia se hicieron previsiones triunfalistas a diez años que jamás se
cumplieron, lo que provocó el abandono casi total de las investigaciones
durante quince años.
Década de 1980
En 1980 la historia se repitió con el desafío
japonés de la quinta generación, que dio lugar al auge de los sistemas expertos
pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una
nueva interrupción en los años noventa.
En 1987 Martin Fischles y Oscar Firschein
describieron los atributos de un agente inteligente. Al intentar describir con
un mayor ámbito (no solo la comunicación) los atributos de un agente
inteligente, la IA se ha expandido a muchas áreas que han creado ramas de
investigaciones enormes y diferenciadas. Dichos atributos del agente
inteligente son:
Tiene actitudes mentales tales como creencias
e intenciones.
Tiene la capacidad de obtener conocimiento,
es decir, aprender.
Puede resolver problemas, incluso
descomponiendo problemas complejos en otros más simples.
Capaz de realizar operaciones más complejas.
Entiende. Posee la capacidad de dar sentido,
si es posible, a ideas ambiguas o contradictorias.
Planifica, predice consecuencias, evalúa
alternativas (como en los juegos de ajedrez)
Conoce los límites de sus propias habilidades
y conocimientos.
Puede distinguir a pesar de la similitud de
las situaciones.
Puede ser original, creando incluso nuevos
conceptos o ideas, y hasta utilizando analogías.
Puede generalizar.
Puede percibir y modelar el mundo exterior.
Puede entender y utilizar el lenguaje y sus símbolos.
Podemos entonces decir que la IA posee
características humanas tales como el aprendizaje, la adaptación, el
razonamiento, la autocorrección, el mejoramiento implícito, y la percepción
modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la
IA.
Década de 1990
En los 90 surgen los agentes inteligentes al
paso de los años eso fue evolucionando.
Década de 2000
El programa Artificial Linguistic Internet Computer
Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot más humano en 2000, 2001
y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio.
Década de 2010
Muchos de los investigadores sobre IA
sostienen que «la inteligencia es un programa capaz de ser ejecutado
independientemente de la máquina que lo ejecute, computador o cerebro»:
2010: El programa Suzette ganó el premio
Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse,
Alice, Paula SG, Virtual woman millenium.
2011: Un ordenador de IBM gana el concurso de
preguntas y respuestas 'Jeopardy!': El ordenador de IBM Watson ha salido
victorioso de su duelo contra el cerebro humano. La máquina ha ganado el
concurso de preguntas y respuestas Jeopardy!, que emite la cadena de televisión
estadounidense ABC, al imponerse a los dos mejores concursantes de la historia
del programa. Watson les ha vencido en la tercera ronda, contestando preguntas
que le obligaban a pensar como una persona.
2014: Un ordenador ha logrado superar con
éxito el test de turing: Un ordenador ha logrado superar con éxito el test de
Turing haciendo creer a un interrogador que es una persona quien responde sus
preguntas- en un certamen organizado en Londres por la Universidad de Reading
(Reino Unido). El ordenador, con el programa Eugene desarrollado en San
Petersburgo (Rusia), se ha hecho pasar por un chico de 13 años, y los
responsables de la competición consideran que es un “hito histórico de la
inteligencia artificial”.
2016: Un ordenador de Google vence al campeón
mundial de un juego milenario “Go”: Un programa informático desarrollado por la
compañía británica Google DeepMind había conseguido vencer, por primera vez, a
un campeón profesional de un milenario juego de origen oriental llamado Go. El
reto era enorme para una máquina, ya que la prueba de estrategia encierra una
gran complejidad.
Usos de la inteligencia
artificial en Medicina
Ayuda al diagnóstico y al tratamiento
La inteligencia artificial le da a las
máquinas la capacidad de “razonar y aprender”. Dos capacidades que son de gran
utilidad en el diagnóstico clínico. Por ejemplo, un programa informático puede
analizar la foto de una mancha en la piel y comparando con su base de datos
establecer las probabilidades de que sea un melanoma. Aplicaciones parecidas se
están desarrollando para otras muchas enfermedades, aunque de momento la IA
complementa y afianza el diagnóstico de los médicos.
La planificación del tratamiento también
sería otro punto fuerte de la IA, basándose en toda la información del paciente
y el desarrollo de miles de casos parecidos podrían planificarse el tratamiento
más eficaz.
Cuidadores robóticos.
¿Una enfermera robótica? Parece que será una
de las claves de la asistencia a ancianos y enfermos dependientes en el futuro.
De momento ya se han desarrollado mascotas robóticas con fines terapéuticos
para ayudar a los pacientes de Alzheimer. Las mascotas robóticas estimulan las
funciones cerebrales de los pacientes retrasando los problemas cognitivos que a
su vez mejoran la calidad de vida y reducen la dependencia de los servicios
sociales.
Por otro lado, el uso de la telemedicina ya
está ayudando a evitar desplazamientos innecesarios al centro médico y permitir
una mayor autonomía personal.
Aliviar la carga de los médicos
Las pruebas de análisis, las radiografías,
las tomografías computarizadas, la entrada de datos y otras tareas mundanas se
pueden realizar de forma más rápida y precisa si las llevan a cabo robots. La
cardiología y la radiología son dos ejemplos de disciplinas donde la cantidad
de datos para analizar pueden resultar abrumadoras.
Quizás en un futuro los casos sencillos
queden exclusivamente en manos de la IA y los médicos humanos solo se ocupen de
los más complicados.
Desarrollo de fármacos
Conseguir nuevos medicamentos eficaces
mediante la realización de ensayos clínicos puede llevar más de una década y
costar miles de millones. Por tanto, agilizar el proceso gracias al uso de la
IA podría literalmente cambiar el mundo.
En la última crisis del ébola, se utilizó un
programa impulsado por AI para analizar medicamentos existentes que podrían
rediseñarse para combatir la enfermedad. El programa encontró dos medicamentos
que pueden reducir la infectividad del ébola en un día, cuando un análisis de
este tipo suele llevar meses o años, una diferencia que posiblemente salvó
miles de vidas.
Ventajas y desventajas de la Cibernética
Ventajas
La reducción de las jornadas laborales; los
trabajos complejos o rutinarios pasarían a ser de las máquinas. Además, la
cibernética brinda un gran aporte al campo medicinal.
Un conocimiento mayor de cómo funcionan los
sistemas complejos podría llevar a la solución de problemas también complejos
como la criminalidad en las grandes ciudades.
Desventajas
Reemplazo de mano de obra humana por mano de
obra robótica.
Eventualmente aumentaría la desigualdad
social, favoreciendo a quienes tengan los recursos para adquirir y utilizar
máquinas.
Los países más industrializados ejercerían un
control aun mayor sobre los países menos tecnologizados, que se harían
peligrosamente dependientes de los primeros.
Ventajas y desventajas de la Inteligencia Artificial
Ventajas
En el ámbito laboral reduce los costos y
salarios adicionales.
Por resultar un atractivo, conlleva a generar
más ingresos.
Se han desarrollado aplicaciones que realizan
tareas que el hombre nunca hubiera podido realizar debido a su complejidad.
Puede predecir situaciones a largo plazo.
Reduce el tiempo que consume realizar cierta
actividad.
Lograr grandes hallazgos y avances.
Desventajas
Por ser software, requieren de constantes
actualizaciones (mantenimiento).
Realizar estos sistemas expertos requiere de
mucho tiempo y dinero.
Crear máquinas que sean autosuficientes y
puedan ir desplazando a la raza humana.
El uso irracional y exagerado de esta
tecnología podría conllevar a la dominación de las máquinas sobre el hombre,
como también llegar a depender mucho de ellas.
El hombre se siente menos importante cuando
una máquina o un sistema “lo supera”.
Comentarios
Publicar un comentario