Acta Académica, 73, Noviembre 2023, ISSN 1017-7507

Inteligencia Artificial: La Importancia de Asumir Responsabilidades
Artificial Intelligence: The Importance of Assuming Responsibilities

Monserratt Carcache-González*

Ronald Mora-Barboza**

José Rodrigo-Ubisco***

Carolina Torre-Li****

Marco Tux-Che*****

Resumen

En la actualidad, la inteligencia artificial (IA) es utilizada en diversos productos y sistemas, desde automóviles hasta chatbots, lo que ha llevado a su popularidad y al crecimiento de la industria tecnológica. Sin embargo, la IA también presenta un problema ético: la falta de responsabilidad en casos de fallas y daños causados por su uso autónomo. Esto pone en riesgo la confianza del público en estos sistemas y, por lo tanto, en la inversión en ellos. El dilema ético radica en que la responsabilidad de la IA recae en su capacidad autónoma de tomar decisiones, lo que puede resultar en consecuencias dañinas sin intervención humana directa. En este contexto, la industria tecnológica y los profesionales involucrados en el desarrollo de IA deben asumir responsabilidades y comprometerse éticamente a garantizar la seguridad y confianza de los usuarios en estos sistemas.

Palabras clave:

INTELIGENCIA ARTIFICIAL - AUTONOMÍA - ALGORITMOS - SISTEMAS INTELIGENTES - ROBÓTICA.

Abstract

Currently, artificial intelligence (AI) is used in various products and systems, from cars to chatbots, which has led to its popularity and the growth of the technology industry. However, AI also presents an ethical problem: the lack of accountability in cases of failures and damages caused by its autonomous use. This puts the trust of the public in these systems at risk and, therefore, the investment in them. The ethical dilemma lies in the fact that the responsibility of AI rests on its autonomous decision-making capability, which can result in harmful consequences without direct human intervention. In this context, the technology industry and professionals involved in AI development must take responsibility and commit to ethical standards to ensure the safety and trust of users in these systems.

Keywords:

ARTIFICIAL INTELLIGENCE - AUTONOMY - ALGORITHMS - SMART SYSTEMS - ROBOTICS.

Recibido: 7 de agosto de 2023

Aceptado: 19 de octubre de 2023

Introducción

La industria tecnológica ha sido una de las áreas de desarrollo que más ha ido creciendo en los últimos años; las grandes empresas de IT (Tecnologías de la Información, por sus siglas en inglés) designan gran parte de su presupuesto para la innovación y desarrollo de nuevos productos o sistemas que puedan vender al público y generar ganancias. Un resultado de este fenómeno ha sido la inteligencia artificial (IA), y la gran variedad de artículos en el mercado que actualmente la utilizan (como automóviles, chatbots, instrumentos médicos y demás).

Pero entonces, ¿qué es la inteligencia artificial? Este concepto se refiere a algoritmos que desarrollan equipos de trabajo, conformados en su mayoría por programadores con amplia experiencia en este campo laboral y cuya finalidad principal es la de crear máquinas o sistemas que presenten las mismas capacidades que presentamos los seres humanos; adicional a esto, se ha clasificado la IA en cuatro tipos distintos: sistemas que piensan como humanos, los que actúan como humanos, los que piensan racionalmente y los que actúan racionalmente; se le ha dado mucha autonomía a las máquinas bajo estas mismas cualidades, pensando que son similares a nosotros (Parlamento Europeo, 2020).

Por otra parte, el auge en popularidad que ha tenido se debe al gran uso que las empresas tecnológicas le han dado, por ejemplo, Tesla utiliza la IA en sus automóviles con piloto automático, Toyota lo hace en brazos robóticos y es gracias a la inteligencia artificial que sistemas de chat virtuales como ChatGPT pueden funcionar y prestar sus servicios.

En un mundo perfecto, se diría que la inteligencia artificial no causa ningún tipo de inconveniente, que los productos siempre funcionan de la manera que han sido diseñados para trabajar; más esto no es la realidad, existen casos extensamente documentados en donde sistemas inteligentes han fallado y no solo eso, si no que han causado daños físicos y hasta la muerte de usuarios involucrados. El problema principal es que, en estas situaciones, no ha resultado sencillo para las autoridades determinar quién es el responsable por los daños causados y ha sido más complejo aún determinar las sentencias adecuadas; por tanto, se presentarán ejemplos de esta situación en párrafos posteriores.

El problema de que no haya un ente que decida asumir la responsabilidad pone en evidencia la posible falta de valores, como la responsabilidad de los entes involucrados, ya que no existe un compromiso real con respecto a las acciones que se toman, se violenta la confianza, ya que el público espera productos funcionales y, que si fallan, como mínimo alguien pueda responderles y, muy de la mano, también se violenta la honestidad, puesto que en muchos casos se decide esconder y tapar malas prácticas que pueden llegar a ser el causante de los fallos.

Por lo tanto, si el público en general continúa presenciando fallas que resultan en daños causados por máquinas inteligentes, y si no se asume adecuadamente la responsabilidad por estas fallas, existe el riesgo de que se pierda la confianza en estos sistemas y, como consecuencia, la inversión en ellos pueda disminuir.

Es entonces donde la ética/moral de todos los involucrados sale a relucir y, por ende, es importante definir estos conceptos, puesto que se seguirán tratando a lo largo de este artículo. De Zan (2004) define “ética” como una ciencia, la cual pertenece al ámbito de la filosofía, y cuyo enfoque es el estudio del lenguaje moral, es por esto por lo que muchas personas consideran el término “ética” como sinónimo de “filosofía de lo moral”. Por su parte, “moral”, es el objetivo de la filosofía y lo que esta ciencia estudia.

Este juego de responsabilidades es un problema ético a este punto, ya que ni las empresas encargadas de la producción de estos sistemas, ni los profesionales involucrados con su desarrollo, ni los usuarios que se encontraban utilizando el producto desean hacerse cargo de la responsabilidad ante estos eventos, y en redes sociales hay usuarios que hasta han llegado a culpar a la misma inteligencia artificial, basados en el hecho de que se programan en muchos casos, “para que piensen y actúen como humanos”.

El dilema ético de la responsabilidad de la inteligencia artificial frente a la del programador es un tema muy importante y complejo en el ámbito de la inteligencia artificial y la robótica; por un lado, la responsabilidad de la inteligencia artificial recae en su capacidad de tomar decisiones autónomas basadas en el aprendizaje automático y el procesamiento de datos. Esto significa que, la IA podría tomar decisiones incorrectas o incluso dañinas sin la intervención humana directa. En este caso, ¿quién es responsable de las consecuencias?

Los Profesionales

Si bien, muchos profesionales se ven envueltos en la elaboración, enseñanza y distribución de estos productos, la ingeniería de sistemas es una de las carreras que se ve involucrada de manera importante en este proceso, puesto que son estos trabajadores quienes se ven en la tarea de diseñar desde cero los algoritmos que se utilizarán a futuro, se ven en la tarea de programar los sistemas, deben también hacer pruebas al código que escribieron para asegurar la calidad del mismo y, en muchos casos, también se pueden ver envueltos en la producción y ensamblaje de estos. Es debido a la gran participación que estos profesionales tienen, que se llegan a considerar un posible ente responsable.

Para efectos de este apartado, se ha utilizado como base los pensamientos y escritos de Emilio Martínez y Eduardo Guariglia para analizar el problema ético que surge cuando los profesionales no asumen su porción de responsabilidad.

Guariglia (2007) menciona, como parte de su escrito, los principios y la definición de lo que se conoce actualmente como la ética kantiana y, curiosamente, dos de los principios con más peso que este autor destaca es el hecho de que Immanuel Kant sostiene que los seres humanos deben ser tratados como fines en sí mismos y no como medios para lograr un fin, y que la moralidad deriva del deber, no de las consecuencias que las acciones tomadas puedan acarrear a futuro.

Entonces, si un ingeniero en sistemas decide participar en la creación y en el diseño de sistemas inteligentes, solo con la idea de satisfacer algún deseo u objetivo (que puede ser monetario, profesional y hasta egocéntrico), sin importarle lo que pueda suceder al momento que el producto llegue a manos de los usuarios, de este modo, estaría cayendo en un dilema ético si se piensa desde el punto de vista de Kant, esto porque para llegar a cumplir su meta, estaría viendo a los humanos como medios.

Este pensamiento se puede visualizar de mejor manera con un ejemplo: se puede suponer que existe un profesional que decide formar parte de un equipo que va a crear un producto inteligente, con el fin de ser promovido a un mejor puesto, obtener un mejor salario y conocimientos; para esto, decide que los usuarios serán la prueba final para observar si su esfuerzo ha dado fruto y obtendrá su meta, por lo que entonces no realiza pruebas tecnológicas extensas antes de sacar el sistema a producción, ya que los usuarios ultimadamente van a realizar este paso por él. Aquí, ya el profesional estaría viendo al usuario como un objeto, como un medio para alcanzar sus objetivos.

Adicionalmente, si el sistema llegara a fallar y el ingeniero decidiera no asumir la responsabilidad ante el hecho de que no probó el producto como debería, para salvarse a sí mismo y a su reputación y prefiera culpar a otro ente, otra vez estaría viendo a los usuarios como un medio para obtener su objetivo, que en este caso sería la impunidad.

Guariglia (2007) menciona también que la moralidad se deriva del deber y no de las consecuencias, lo que significa que una acción es correcta o incorrecta independientemente de si produce consecuencias negativas o positivas.

Desde el punto de vista de la ética kantiana, entonces, en el momento que un ingeniero delega la responsabilidad a alguien más, ya está cometiendo una acción incorrecta, aún si se diera el caso de que ninguna entidad es encontrada culpable, ¿por qué?, porque estaría mintiendo, violentando los valores de responsabilidad, confianza y honradez.

Relacionado con el tema de los valores, Martínez (2006), en su escrito, detalla con mucha claridad las razones por las cuales un profesional debe asumir la responsabilidad por los actos y técnicas de la profesión, y es que los profesionales reclaman un ámbito de autonomía en el ejercicio de sus profesiones y que, por tanto, al afán de esta autonomía corresponde el deber de asumir la responsabilidad por los actos y técnicas de la profesión.

Basándose en el pensamiento de Martínez (2006), se puede entonces inferir que los profesionales al haber reclamado autonomía sobre sus labores han adquirido de manera inherente el deber de asumir la responsabilidad por todos los actos propios y provenientes del ejercicio de su profesión como tal.

Es entendible el hecho de que los ingenieros tengan miedo de asumir la responsabilidad cuando alguna eventualidad negativa ocurre, desde repercusiones legales y monetarias, hasta la pérdida de prestigio social; estas son tan solo algunas de las consecuencias a las que se podría llegar a enfrentar un humano cuando se le responsabiliza ante algún hecho en específico, pero parte de los valores que se deberían aprender e interiorizar durante los estudios universitarios previos a ejercer la profesión son la responsabilidad y la honradez. De hecho, el Colegio de Profesionales en Informática y Computación [CPIC] menciona en el artículo 16 de su código de ética que el profesional deberá cimentar su reputación en la honradez, laboriosidad y capacidad profesional, observando las reglas de ética más elevadas (2013).

Sin embargo, desde el punto de vista legal, el desconocimiento no es base para no ser juzgado ante un tribunal de ser necesario, por lo que los profesionales deberán investigar por su parte cuáles valores y el código de ética en general, sobre el cuál deberían regir todas sus actividades.

Otro punto de vista importante de tomar en cuenta es el de la ética de las virtudes, que es una teoría ética que se centra en la formación del carácter virtuoso de la persona, a través del desarrollo y la práctica de ciertas cualidades morales, como la honestidad, la justicia, la humildad, la prudencia, la templanza y la sabiduría.

Según MacIntyre (1984), la ética de las virtudes sostiene que “una vida moralmente buena es aquella que es guiada y regulada por las virtudes, es decir, por ciertos hábitos o disposiciones de la voluntad” (p. 71). Esta teoría ética se enfoca en la educación y la práctica de las virtudes, en contraposición a otras teorías éticas que se centran en reglas, principios o consecuencias. A su vez, hace hincapié en la importancia de la educación, la práctica y la imitación de modelos virtuosos.

La inteligencia artificial puede tomar decisiones que afecten a las personas y, en algunos casos, puede ser difícil de determinar quién es responsable de esas decisiones. En este caso, la ética de las virtudes podría enfocarse en la virtud de la responsabilidad, para garantizar que se tomen medidas adecuadas para legitimar que las decisiones sean responsables y justas para todas las partes involucradas.

En el contexto del dilema ético de la responsabilidad de la inteligencia artificial y la del programador, la ética de las virtudes puede ser relevante en la medida en que los programadores y los diseñadores de IA deban poseer virtudes éticas para garantizar que la IA sea responsable y ética. Esto se debe a que la ética de las virtudes sostiene que el desarrollo de virtudes positivas es fundamental para la formación de un buen carácter y la adopción de acciones éticas (MacIntyre, 1984).

Por ejemplo, un programador que desarrolla una IA con una preocupación ética podría poseer virtudes como la responsabilidad, la honestidad, la empatía y la preocupación por el bienestar de los demás. Estas virtudes éticas se reflejarían en el desarrollo de una IA responsable y ética que se preocupa por la justicia, la privacidad y el bienestar de los usuarios.

Para finalizar con esta sección, tanto Guariglia (2007) como Martínez (2006) refuerzan el pensamiento inicial que se tenía de que los ingenieros en sistemas directamente relacionados con el desarrollo de sistemas inteligentes deberían asumir parte de la responsabilidad cuando los productos fallan y que violentan la ética kantiana y los valores propios de la profesión en el momento que deciden evadir sus responsabilidades.

Las Empresas

Por otro lado, no se puede pretender que los profesionales asuman toda la responsabilidad ante eventualidades como quizás haya quienes puedan pensar. Las organizaciones también son una entidad que debe y puede compartir la culpa.

Las empresas son un ente altamente involucrado en esta problemática y esto se debe a que son las compañías quienes destinan presupuestos, recursos y tiempo para la investigación y producción de productos inteligentes y son, a su vez, quienes también promueven la venta y uso de estos por parte de los usuarios, todo con el fin de obtener ganancias; de hecho, no existirían muchos de los sistemas con inteligencia artificial si no fuera porque existen empresas que han destinado tiempo y dinero a su desarrollo, pero, aun así, no se puede negar la falta de envolvimiento por parte de estas organizaciones a la hora de asumir la culpa.

Cortina (2000) señala que toda organización lleva a cabo sus actividades en un período específico y no puede ni debe pasar por alto el hecho de que en la sociedad en la que opera se ha alcanzado un nivel determinado de conciencia moral. Esta conciencia moral no se refiere tanto a los objetivos que se persiguen, sino más bien a los derechos que deben ser respetados. Las organizaciones tampoco pueden pasar por alto estos derechos bajo el pretexto de que representan un obstáculo para sus objetivos.

Además, las Naciones Unidas establecen en el artículo 3 de la Declaración Universal de Derechos Humanos, publicada en 1948, que toda persona posee un derecho inherente a la vida y a la seguridad de su persona. Por lo tanto, si una empresa decide ignorar este derecho con la justificación de que obstaculiza sus objetivos, es susceptible de ser sometida a un juicio legal. Esto se debe a que estaría violando directamente el derecho humano mencionado anteriormente en este párrafo.

Por ejemplo, si una compañía optara por invertir en el desarrollo de un producto inteligente, pero decidiera reducir costos evitando realizar pruebas de interacción con sus usuarios, prever posibles reacciones adversas y prevenir el uso indebido de este, y lamentablemente, al poner el sistema en funcionamiento, causa algún tipo de daño a los usuarios, la empresa debe asumir cierto grado de responsabilidad. Esto se debe a que, al tomar conscientemente la decisión de evitar la realización de pruebas, ha asumido indirectamente el riesgo de cualquier eventualidad que pueda surgir como resultado de esta imprudencia.

Los Usuarios

Asimismo, si un usuario hace uso de la tecnología de manera inadecuada y con fines de causar daños, entonces asume la responsabilidad, pero si simplemente fue una víctima desafortunada no es más que eso, una víctima y la culpa la debería seguir asumiendo el profesional y las organizaciones.

La Inteligencia Artificial

Otro grupo que ha enfrentado acusaciones, pero cuya posición es igualmente sencilla de determinar, es la IA, especialmente si nos basamos en la perspectiva de Cortina (2000). Esta autora menciona que tener conciencia de los objetivos que se persiguen y acostumbrarse a elegir y actuar en función de ellos es la clave de la ética.

Entonces, la inteligencia artificial en el año 2023 no puede ser la responsable de los daños, ya que no tiene una verdadera conciencia y toma decisiones basándose en lo que los ingenieros en sistemas le enseñaron, a su vez que depende de ellos para aumentar sus conocimientos y para cualquier tipo de mantenimiento o mejora.

Más bien, el pensamiento mencionado anteriormente refuerza la idea de que los profesionales deberían, como mínimo, asumir parte de la responsabilidad. Esto se debe a que tienen conciencia de los objetivos que persiguen, conocen los valores inherentes a su profesión, gozan de libertad de decisión y, por lo tanto, tienen la responsabilidad de actuar de manera ética.

Justicia e Inteligencia Artificial

Además, otro tema de gran importancia relacionado con la responsabilidad y la inteligencia artificial es la cuestión de la justicia. Ante cualquier eventualidad, sin importar quién se elija como responsable, es fundamental que exista un proceso legal y una decisión final justa.

Otro dilema que se encuentra es el hecho de que la mayoría de los países no cuentan con leyes bien definidas para juzgar cuando suceden accidentes relacionados con la inteligencia artificial, por lo que se dificulta aún más este proceso.

Ahora, se puede hacer uso de los textos “Ética de la profesión” (Martínez, 2006) y “Ética de la empresa” (Cortina, 2000) para tratar de definir quién o qué entidades deben ser las encargadas de llevar a cabo la justicia.

Visto desde la opinión de Martínez (2006), se puede decir que son los mismos colegas informáticos quienes deberían juzgar de manera directa a los desarrolladores directamente involucrados con los incidentes, puesto, que en conjunto, conforman los colegios profesionales y un colegio profesional trata de obtener el control monopolístico sobre el ejercicio de la profesión, así como también, los profesionales son los expertos en su área y, por tanto, exige ser juez a la hora de determinar qué forma de ejercer la profesión es la correcta y qué formas de ejercerla son las desviadas. Sin embargo, los ingenieros en sistemas no tienen dentro de sus facultades el conocer las regulaciones y leyes de los diferentes países, por lo que podrían ayudarse de abogados y expertos en el área, pero los programadores siempre deberían verse involucrados de alguna manera.

Cortina (2000), por otra parte, menciona que las organizaciones existen para proporcionar beneficios a la sociedad, y son las personas mismas quienes deben ser los jueces de estas organizaciones. Por esta razón, pueden delegar la responsabilidad de evaluar a abogados y jueces, ya que tienen todo el derecho de exigir que los bienes proporcionados sean funcionales y no violen sus derechos.

En resumen, se podría argumentar que los colegas profesionales, en colaboración con un jurado, deberían evaluar a los colegas profesionales implicados en estos casos. Por otro lado, las empresas deberían ser evaluadas por los usuarios y el público en general, a quienes se les deben explicaciones. Para llevar a cabo estas evaluaciones, nuevamente se podría delegar la tarea a abogados y jueces.

Casos

Uno de los primeros casos documentados de accidentes relacionados con inteligencia artificial que ha causado la muerte de usuarios es el ocurrido en 1981, donde Kenji Urada, un trabajador de la empresa Kawasaki, perdió la vida cuando un brazo robótico lo empujó a una máquina de moler; en este caso, la compañía no tardó en responsabilizar a la víctima por el accidente, de hecho, la justicia determinó que había sido Urada quien causó el hecho y, por lo tanto, el responsable (Bish, s.f.).

En el año 2015, se produjo otro incidente relacionado con brazos robóticos, en el cual un técnico de 21 años que estaba realizando la instalación de un producto en una planta de Volkswagen, Alemania, fue golpeado en el pecho por el brazo robótico, lo que resultó en su fallecimiento en el lugar. Al igual que en los otros dos casos mencionados anteriormente, un portavoz de la empresa no tardó en argumentar que todo se debió a un “error humano” y que no debían ser considerados culpables. Sin embargo, en este caso, es importante destacar que el trabajador no infringió ninguna norma de seguridad y estaba instalando un producto programado y creado por otra entidad (cuya identidad y empresa de fabricación aún se desconocen). A pesar de esto, la justicia simplemente calificó el incidente como un accidente (Tech, 2022).

Otro caso se presenta en Estados Unidos, concretamente en el estado de Arizona, en 2018, en el que un vehículo autónomo de Uber colisionó con un ciclista, no logrando detectarlo a tiempo y lamentablemente causando la muerte de la víctima en el lugar del accidente. En este caso, la compañía siguió el mismo patrón y culpó al conductor de seguridad del vehículo, argumentando que debía haber intervenido. El conductor acusado se defendió alegando que el automóvil no estaba programado correctamente y que, por lo tanto, la empresa y los desarrolladores debían asumir la responsabilidad. Sin embargo, la justicia falló a favor de Uber y penalizó al conductor (Tech, 2022).

En estos hechos, lo idóneo según Guariglia (2007) y Martínez (2006) sería responsabilizar a los profesionales directamente envueltos en la creación del brazo y el auto. En ninguno de los reportajes que cubrieron este hecho se menciona el tipo de investigaciones que se realizaron, pero, asumiendo que fueron vagas, lo ideal hubiese sido averiguar si los profesionales siguieron todos los procedimientos de seguridad existentes, si probaron el producto todo lo que se pudo. Al final, como mínimo, deberían haberles asegurado a los usuarios una futura mejoría para con estos productos, lo cual demostraría que poseen los valores de responsabilidad y honradez, y mantendrían la confianza de las personas.

A partir de lo planteado por Cortina (2000), las empresas también deberían haber asumido parte de la responsabilidad, ya que dieron la aprobación para que el producto saliera al mercado. Una investigación apropiada con resultados accesibles al público habría sido un buen punto de partida para mantener la confianza de los usuarios. Además, ofrecer disculpas y una compensación a las familias de las víctimas habría sido visto de manera más favorable y habría demostrado que la empresa está comprometida con seguir los códigos de ética y respetar los derechos humanos.

Conclusiones

Basándose en los casos presentados anteriormente, así como en la comparación realizada entre las lecturas, puntos de vista éticos y la opinión de los autores de este escrito, se puede concluir que la responsabilidad ante cualquier eventualidad en donde la inteligencia artificial falle debe ser compartida entre los ingenieros en sistemas responsables de su creación y la organización que dio el visto bueno para que el producto fuera puesto en venta.

La responsabilidad del programador es la de garantizar que la inteligencia artificial esté programada de manera ética y segura. Los programadores tienen la responsabilidad de asegurarse de que la IA no cause daño a las personas, los animales o el medio ambiente, y que se adhiera a los estándares éticos y legales. Los programadores tienen la responsabilidad de garantizar que la IA sea justa, transparente y responsable. Si la IA toma decisiones incorrectas, los programadores deben ser capaces de identificar y corregir los errores. En última instancia, los programadores son responsables de garantizar que la IA esté diseñada y utilizada de manera ética y segura.

Por lo tanto, como mínimo, las empresas deberían estar dispuestas a permitir que se realicen exhaustivas investigaciones en el momento en que ocurra alguna de estas eventualidades en sus instalaciones. Además, deberían comprometerse a revelar los resultados al público en general para mantener su confianza. No se debe olvidar que ofrecer disculpas a las personas afectadas y a sus familiares debería ser una acción siempre presente y necesaria en situaciones como estas.

Además, sería fundamental que las empresas proporcionen formación en ética y las distintas normativas a seguir durante las actividades laborales de sus empleados. Esto podría lograrse mediante capacitaciones impartidas por especialistas, cursos obligatorios y programas de educación continua. De esta manera, se establecería un estándar ético a nivel organizacional, y los empleados contarían con directrices claras a seguir en cada decisión que tomen o en cada procedimiento que realicen.

En conclusión, es crucial que estos incidentes se sometan siempre a una investigación y un proceso judicial posterior, en el cual tanto colegas ingenieros en sistemas como el público en general, representado por abogados y jueces, examinen los hechos y emitan un veredicto. No debemos olvidar que, en caso de que se encuentre a los profesionales o empresas responsables, deben existir consecuencias legales.

Entender y aceptar parte de la responsabilidad en situaciones como estas es algo que tanto los profesionales como las organizaciones deberían abrazar. Dentro del código de ética de la profesión que han estudiado, y en el marco de las leyes y códigos de ética de los países en los que operan, se les exige asumir la responsabilidad por sus acciones. Valores como el respeto, la honradez, la honestidad y la confianza deben ser siempre fundamentales en nuestro ámbito profesional, y es un signo de humanidad aceptar nuestros errores.

Referencias

Bish, J. (s.f.). Un robot mata a un trabajador de una fábrica de Volkswagen. Vice. https://www.vice.com/es/article/exwzqp/un-robot-mata-a-un-trabajador-de-una-fabrica-de-volkswagen-987

Colegio de Profesionales en Informática y Computación. (2013). Código de Ética CPIC 2013. https://cpic.or.cr/documentos/normativa/CodigodeEticaCPIC.pdf

Cortina, A. (2000). Ética de la empresa. Editorial Trotta.

De Zan, J. (2004). La ética, los derechos, y la justicia. Editorial Mastergraf.

Guariglia, E. (2007). Cuestiones Morales. Editorial Trotta.

MacIntyre, A. (1984). After Virtue: A Study in Moral Theory. University of Notre Dame Press.

Martínez, E, (2006). Ética de la profesión: proyecto personal y compromiso de ciudadanía. VERITAS, (1)14, 121-139.

Naciones Unidas. (s.f.). Declaración Universal de los Derechos Humanos. UN. https://www.un.org/es/about-us/universal-declaration-of-human-rights

Parlamento Europeo. (8 de septiembre, 2020). ¿Qué es la inteligencia artificial y cómo se usa? Noticias Parlamento Europeo. https://www.europarl.europa.eu/news/es/headlines/society/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa

Serrano, J. (19 de abril del 2021). Un coche de Tesla que circulaba sin conductor causa un accidente mortal. Autopista. https://www.autopista.es/noticias-motor/coche-tesla-circulaba-sin-conductor-causa-accidente-mortal_232147_102.html

Schroer, A. (19 de septiembre, 2022). What is artificial intelligence? Builtin. https://builtin.com/artificial-intelligence

Tech, A. (3 de agosto, 2022). Los accidentes con robots más famosos de los últimos años: ¿con una amenaza? Giztab. https://www.giztab.com/accidentes-con-robots/

Zorrero, D. (15 de febrero, 2023). El sistema Autopilot otra vez en observación: qué sucedió en el accidente fatal del Tesla en China. Infobae. https://www.infobae.com/autos/2022/11/15/el-sistema-autopilot-otra-vez-en-observacion-que-sucedio-en-el-accidente-fatal-del-tesla-en-china/

* Bachiller en Ingeniería en Sistemas de la UACA. World Fuel Services, Departamento de TI. Alajuela, Costa Rica. Correo electrónico: monserrattCarcache@gmail.com

** Licenciado en Ingeniería en Sistemas de la UACA. Docente y Director de Ingeniería de Sistemas en la de Universidad Autónoma de Centro América. San José, Costa Rica. Correo electrónico: rmorab@uaca.ac.cr.

*** Bachiller en Ingeniería en Sistemas de la UACA. San José, Costa Rica. Correo electrónico: j.mora-13@hotmail.com.

**** Bachiller en Ingeniería en Sistemas de la UACA. San José, Costa Rica. Correo electrónico: carotorrel@gmail.com

***** Bachiller en Ingeniería en Sistemas. San José, Costa Rica. Correo electrónico:marco.maentch@gmail.com