domingo, 22 de abril de 2012

Lectura bibliográfica: introducción a los sistemas inteligente

A continuación os dejo mi lectura bibliográfica del tema 1 de sistemas inteligentes:


Debido a que el tema de lectura bibliográfica era de libre elección, yo me he decantado por la relación de la Inteligencia Artificial con la Ética, ya que me parece un aspecto a tener en cuenta y que no se evalúa ni se trata con tanta profundidad como otros.
Para empezar es importante conocer la definición de los términos que vamos a abordar, la Inteligencia Artificial estudia cómo lograr que los ordenadores, máquinas, realicen tareas que por el momento, son realizadas mejor por las persona. Por otra parte la ética se define comouna rama de la filosofía que abarca el estudio de la moral, la virtud, el deber, la felicidad y el buen vivir. Nosotros cuando hablemos de ética nos vamos a centrar fundamentalmente en el ámbito de la moral, de lo que está bien o está mal.
Gracias a la IA podemos obtener máquinas capaces de desarrollar el trabajo de personas cualificadas específicamente para ello, esto nos plantea la duda moral de ¿está la IA quitando puestos de trabajos humanos? A lo cual podemos plantearnos si normalmente nos hacemos esa misma pregunta cuando vemos a un obrero utilizando una excavadora, en lugar de haber una plantilla de cinco hombres excavando, o por otra parte cuando nos montamos en un avión que está guiado por un sistema de IA y supervisado por un piloto experto, en lugar de ser guiado por dicha persona. Habitualmente nos solemos plantear esa duda ética, cuando están en juego la integridad física y psicológica de al menos una persona.
Es normal alarmarse cuando recibimos la noticia de que una persona ha sido intervenida en un quirófano por una máquina en lugar de por una persona, pero en cambio, nuestra impresión cambia al saber que esa máquina está controlada por dicha persona. Es ahí donde radica la cuestión ética, en el control de dicha máquina, en la decisión final.
Las personas de manera innata tendemos a la violencia o a la agresividad, en cambio las máquinas no, a menos que se les programe para ello. Con esto intento llegar a la idea que no es la IA un problema ético en sí, sino la persona o el grupo de personas, y el fin que estos quieran darle a la IA.
Una máquina de diagnóstico médico no debe sustituir a un profesional de la medicina, pero si podría ayudarle, podría ofrecerle las distintas opciones óptimas de tratamiento, en caso de que hubiese varias, y que fuese el profesional humano quien decidiese que opción tomar. Sería una irresponsabilidad por parte del profesional dejar que la máquina decida por si misma y se tomase esa opción como única y verdadera.Es importante destacar que la máquina ha sido previamente programada, luego no tiene libertad de decisión, y ello implica que no es responsable legal ni moralmente de los efectos de sus acciones, siempre debe haber una persona especialista y experta en el ámbito de trabajo de la máquina para que pueda hacerse responsable de las opciones tomadas, y más aún cuando se trata de vidas humanas.
Como conclusión final y resumen de mis ideas obtenidas tras una lectura de diferentes fuentes de información, quiero exponer que “Una máquina nunca podrá responsabilizarse de las consecuencias de sus actos debido a la falta de libertad de la misma”, “Sería una irresponsabilidad tomar como buena la opción resultado que de la máquina” y si de una cosa estamos seguros es “Las máquinas son como sus 'dueños', pero aún así siempre máquinas”.

No hay comentarios:

Publicar un comentario