2026, 04, 17
  • Noticias
  • La Revista
  • Columnistas
Foro Jurídico

  • Noticias
    • Nacional
    • Política
    • Estados
    • Internacional
    • Instituciones Jurídicas
    • Economía y Finanzas
    • Negocios
    • Despachos Jurídicos
    • Educación
    • Asociaciones
    • Tecnología
    • Cultura / Sociedad / Deportes / Espectáculos
  • La Revista
    • En Portada
    • Editorial
    • Reportaje especial
    • En la opinión
    • Cadalso
    • Entrevistas / Noticias
    • Estados
    • Secciones
      • Abogadas Influyentes
      • Abogado Digital
      • Democracia participativa
      • El Marco del Poder
      • Foro de Propiedad Intelectual
      • Máquina del tiempo
      • Mirador Fiscal
    • Revistas anteriores
  • Radio
  • Columnistas
  • Videos
    • Los retos de la jornada electoral en las elecciones 2021

      Los retos de la jornada electoral en las elecciones 2021

      por Foro Juridico
      4 junio, 2021
    • El Juicio de Amparo Penal frente a la Pandemia

      El Juicio de Amparo Penal frente a la Pandemia

      por Foro Juridico
      28 mayo, 2021
    • Análisis de la Reforma a la Ley de Hidrocarburos

      Análisis de la Reforma a la Ley de Hidrocarburos

      por Foro Juridico
      21 mayo, 2021
    • El rediseño del espacio aéreo y el ruido a los…

      El rediseño del espacio aéreo y el ruido a los…

      por Foro Juridico
      14 mayo, 2021
  • Premio Foro Jurídico
Foro Jurídico
Foro Jurídico
foro jurídico inteligencia artificial
Artículo Secundario

El Vaticano y la Inteligencia Artificial

por Foro Juridico
1, julio, 2019
743
0
23 minutos de lectura

A lo largo de la historia ha existido un supuesto enfrentamiento entre la religión y la ciencia. En la actualidad, con el desarrollo de la Inteligencia Artificial, pudiera entenderse que podríamos regresar a los viejos tiempos de oscurantismo científico.

En las investigaciones de Foro Jurídico para elaborar nuestro especial de ciberseguridad e Inteligencia Artificial, encontramos que el pasado 16 y 17 de mayo, del 2019, se llevó a cabo, en el Vaticano, el Taller Robótica, Inteligencia Artificial y Humanidad: Ciencia, Ética y Política, organizado por la Pontificia Academia de las Ciencias (PAS), en conjunto con la Pontificia academia de las Ciencias Sociales (PASS). Los especialistas allí reunidos analizaron los recientes avances en el aprendizaje automático (comúnmente conocidos como inteligencia artificial, IA) y la robótica que han provocado un amplio debate sobre sus beneficios e inconvenientes para la humanidad.

La declaratoria del evento dice que los especialistas invitados de todo el mundo se reunieron bajo el siguiente argumento: Las tecnologías emergentes tienen implicaciones dentro de la medicina y la atención médica, el empleo, el transporte, la manufactura, la agricultura y los conflictos armados. Si bien se ha prestado mucha atención a las aplicaciones de robótica/IA en cada uno de estos dominios, ha llegado el momento de obtener una imagen más completa de sus conexiones y las posibles consecuencias para nuestra humanidad compartida.

La PAS informó, que además de examinar las actuales fronteras de investigación en IA/robótica, los participantes discutieron los posibles impactos en el bienestar social, los riesgos para la paz y el desarrollo sostenible, así como las dimensiones éticas y religiosas de estas tecnologías. Los temas tratados en las sesiones de la conferencia incluyeron:

 

  • Fundamentos científicos e impulsores de la innovación de la IA/robótica (entre otros, matemáticas, algoritmos innovadores, informática, roles relacionados con el uso de big data)
  • Las relaciones persona-robot y las implicaciones para la sociedad, teniendo en cuenta las diferencias entre países de bajos y altos ingresos, comunidades rurales y urbanas, jóvenes y ancianos.
  • Tecnología e ingeniería de robótica y aplicaciones de IA/robótica en industrias y servicios, y las implicaciones para el trabajo y el empleo, la fabricación, la agricultura y los sistemas alimentarios, los servicios de salud, la pobreza y la marginación.
  • Interacciones e implicaciones robot-humano.
  • IA/robótica y el carácter cambiante de la guerra.
  • Aspectos éticos y religiosos de la IA y la robótica. Robots e identidad (o incluso los derechos de los robots) y la necesidad de políticas regulatorias sobre el uso y desarrollo futuro de las tecnologías de inteligencia artificial/robótica.

 

Foro Jurídico presenta en esta edición especial de ciberseguridad e Inteligencia Artificial, la declaración final de dicho evento, la cual consideramos que será de mucha utilidad a nuestros lectores para entender la posición de la institución religiosa y de los científicos respecto al desarrollo tecnológico con el que se está enfrentando la humanidad. El documento y lo informes del evento se pueden encontrar en la siguiente página web: Ciberseguridad e Inteligencia Artificial,

 

Cuestiones y agenda

 

  1. Los avances en el aprendizaje automático (a menudo conocidos como inteligencia artificial) y la robótica se están acelerando. Tienen un impacto significativo en el funcionamiento de las sociedades y las economías, y han generado un amplio debate sobre sus beneficios e inconvenientes para la humanidad. Este campo de la ciencia y la tecnología de rápido movimiento requiere nuestra cuidadosa atención. En consecuencia, las Academias Pontificias han organizado esta conferencia que reunió a colegas de diferentes disciplinas.
  2. La inteligencia artificial y las aplicaciones en las tecnologías de robots tendrán implicaciones de gran alcance para las economías, el tejido de la sociedad y la cultura. Además de examinar las actuales fronteras de investigación en IA/robótica, revisamos y discutimos los posibles impactos en el bienestar social y sus implicaciones éticas y políticas.
  3. La inteligencia artificial y la robótica son muy prometedoras para abordar algunos de nuestros problemas sociales, económicos y ambientales más difíciles, como el cambio climático y el logro de los Objetivos de Desarrollo Sostenible (ODS) de la ONU para 2030.
  4. También hay tendencias a largo plazo en IA y robótica, con consecuencias que en última instancia pueden desafiar el lugar que ocupan los humanos en la sociedad.
  5. Preocupan cada vez más los riesgos para la paz debido a nuevas formas de guerra (ataques cibernéticos, armas autónomas), que exigen nuevas normas internacionales de seguridad.
  6. Los aspectos éticos y religiosos de la IA y la robótica necesitan aclaración para poder guiar las necesidades potenciales de las políticas regulatorias sobre las aplicaciones y el desarrollo futuro de la IA/robótica.

 

Cuestiones fundacionales en IA y robótica

  1. El campo de la IA ha desarrollado una rica variedad de enfoques y marcos teóricos por un lado, y aplicaciones prácticas cada vez más impresionantes por el otro. Tiene el potencial de lograr avances en todas las áreas de la ciencia y la sociedad. Puede ayudarnos a superar algunas de nuestras limitaciones cognitivas y resolver problemas complejos. Mientras grandes cantidades de datos presentan un desafío para las capacidades cognitivas humanas, Big Data presenta oportunidades sin precedentes para la ciencia y las humanidades. El potencial de traducción de Big Data es considerable, por ejemplo, en medicina, salud pública, educación y la gestión de sistemas complejos en general (biosfera, geosfera, economía). Sin embargo, la ciencia basada en Big Data sigue siendo empirista y nos desafía a descubrir los mecanismos causales subyacentes que generan patrones.
  2. En combinación con la robótica y las interfaces cerebro-computadora, la IA ya brinda un apoyo único a los pacientes con déficit sensorial o motor y facilita el cuidado de los pacientes discapacitados. Al proporcionar herramientas novedosas para la adquisición de conocimiento, la IA puede traer cambios dramáticos en la educación y facilitar el acceso al conocimiento. También puede haber sinergias derivadas de la interacción robot a robot y la posible sinergia positiva de humanos y robots que trabajan juntos en las tareas.
  3. Entre los problemas fundamentales de la IA y la robótica está la cuestión de si las máquinas pueden alcanzar hipotéticamente capacidades como la conciencia. Esto se debate actualmente desde las perspectivas contrastantes de las ciencias naturales, la teoría social y la filosofía; esto sigue siendo un tema abierto, en gran medida porque hay diversidad de definiciones de “conciencia”. Surgen preguntas sobre si el énfasis en las capacidades suprahumanas de la IA para el cálculo y la compilación enmascara las muchas limitaciones de los sistemas artificiales.
  4. La mayoría sostiene que los robots no pueden ser considerados como personas, por lo que los robots no serán ni deberían ser agentes libres ni poseer derechos. Algunas, sin embargo, sostienen que las concepciones de “comando y control” pueden no ser apropiadas para las relaciones entre humanos y robóticos, y otras incluso preguntan si algo como “ciudadanía electrónica” puede ser considerado. La filosofía y la teología cristianas afirman que el alma humana es intrínsecamente incorruptible. Este es el fundamento metafísico según el cual la persona humana es en sí misma libre y capaz de un orden ético, y emerge de las fuerzas de la naturaleza. Como sujeto espiritual, el ser humano es imago Dei. En este sentido, la filosofía cristiana sostiene que IA/robots no pueden ser considerados como personas, por lo que los robots no pueden y no deben poseer la libertad humana y no poseen un alma espiritual y no pueden ser considerados “imágenes de Dios” sino tal vez “imágenes de seres humanos”, y pueden ser creados por los humanos para ser sus instrumentos para el bien de la sociedad humana.
  5. Dentro de la investigación de aprendizaje automático, hay una línea de desarrollo que tiene como objetivo identificar justificaciones fundamentales para el diseño de agentes cognitivos; tales justificaciones permitirían la derivación de teoremas que caracterizan las posibilidades y limitaciones de los agentes inteligentes. Los agentes cognitivos actúan en un entorno abierto, parcial o completamente desconocido para alcanzar los objetivos. Los conceptos clave para un marco fundamental para la IA incluyen: agentes, entornos, recompensas, puntajes locales, puntajes globales, el modelo exacto de interacción entre agentes y entornos, y una especificación de los recursos computacionales disponibles de agentes y entornos. Un “agente inteligente” puede definirse como un agente que puede lograr objetivos en una amplia gama de entornos. El tema de la cognición con recursos limitados merece una mayor exploración para alcanzar un marco fundacional significativo y ampliamente integrado para la inteligencia artificial.
  6. Un aspecto central del aprendizaje a partir de la experiencia es la representación y el procesamiento del conocimiento incierto. En ausencia de suposiciones deterministas sobre el mundo, no hay ninguna conclusión lógica no trivial que pueda extraerse del pasado para cualquier evento futuro. En consecuencia, es de interés fundamental analizar la estructura de la incertidumbre como una cuestión en sí misma. Queda mucha investigación por realizar para traducir las propuestas preliminares y los métodos formales del ámbito teórico a la ingeniería de soluciones algorítmicas eficientes.

 

“Un agente inteligente puede definirse como un agente que puede lograr objetivos en una amplia gama de entornos.”

 

  1. Algunos resultados recientes establecen una conexión estrecha entre la capacidad de aprendizaje y la probabilidad, reduciendo así la cuestión de qué se puede aprender de manera efectiva de las preguntas fundamentales de las matemáticas con respecto a los axiomas de existencia establecidos. Los resultados de la matemática inversa, una rama de la lógica matemática que analiza teoremas con referencia a los axiomas de existencia establecidos necesarios para probarlos, pueden usarse para ilustrar las implicaciones de los marcos de aprendizaje automático. En general, las técnicas de verificación de modelos y de pruebas se vuelven cada vez más importantes a medida que se amplía la criticidad de las tareas confiadas a los agentes inteligentes.
  2. Hasta hace poco, la ciencia matemática básica tenía pocos (si algún) problemas éticos en su agenda. Sin embargo, dado que los matemáticos y los diseñadores de software son fundamentales para el desarrollo de la inteligencia artificial, es esencial que consideren las implicaciones éticas de su trabajo. A la luz de las preguntas que surgen cada vez más sobre la confiabilidad de los sistemas autónomos, los desarrolladores de IA tienen la responsabilidad, que idealmente debería convertirse en una obligación legal, de crear sistemas de robots confiables y controlables.

 

Ciencia, ingeniería e IA/robot. Interacciones humanas

  1. Se está realizando una importante investigación en áreas que nos definen como seres humanos, como el lenguaje, el procesamiento de símbolos, el aprendizaje de una sola vez, la autoevaluación, el juicio de confianza, la inducción de programas, la concepción de objetivos y la integración de módulos existentes en un objetivo general y multifuncional, arquitectura inteligente. Los agentes computacionales entrenados por el aprendizaje por refuerzo y los marcos de aprendizaje profundo demuestran un desempeño sobresaliente en tareas hasta ahora pensadas como intratables. Si bien todavía falta una base sólida para una teoría general de los agentes cognitivos computacionales, el avance conceptual y práctico de la inteligencia artificial ha alcanzado un estado en el que las cuestiones de ética y seguridad y el impacto en la sociedad en general se convierten en temas apremiantes. Por ejemplo, las inferencias basadas en la IA de los sentimientos de las personas derivadas de los datos de reconocimiento facial son un problema de este tipo.
  2. La difusión de la robótica modifica profundamente las relaciones humanas y sociales en todos los ámbitos de la sociedad, tanto en la familia como en el lugar de trabajo y en la esfera pública. Estas modificaciones adquieren el carácter de los procesos de hibridación entre las características humanas propias de las relaciones y las artificiales, por lo tanto, entre la realidad analógica y la virtual. Por lo tanto, es necesario aumentar la investigación científica sobre cuestiones relacionadas con los efectos sociales que se derivan de la delegación de aspectos relevantes de la organización social a la IA y los robots. El objetivo de esta investigación debe ser comprender cómo es posible gobernar los procesos relevantes de cambio y producir aquellos bienes relacionales que realizan una realización humana virtuosa dentro de un desarrollo social sostenible y justo.
  3. Notamos que el rápido progreso en la ingeniería robótica está transformando industrias enteras (industria 4.0). La evolución de la Internet de las cosas (IoT) con la comunicación entre máquinas y el aprendizaje automático interconectado ofrece grandes avances en servicios como la banca y las finanzas. Las interacciones robot-robot y humano-robot son cada vez más intensas. Sin embargo, los sistemas de IA son difíciles de probar y validar. Esto hace que la confianza en la inteligencia artificial y los robots sea un desafío. Están surgiendo cuestiones de reglamentación y propiedad de los datos, de asignación de responsabilidades y transparencia de algoritmos, y requieren acuerdos institucionales legítimos.
  4. Podemos distinguir entre robots mecánicos, diseñados para llevar a cabo tareas rutinarias en la producción, y capacidades de IA para ayudar en la asistencia social, procedimientos médicos, sistemas de movilidad seguros y energéticamente eficientes, tareas educativas e investigación científica. Si bien los asistentes inteligentes pueden beneficiar a adultos y niños por igual, también conllevan riesgos porque se desconoce su impacto en el desarrollo del cerebro y porque las personas pueden perder la motivación en áreas donde la IA parece superior.
  5. En las últimas décadas, el campo de la robótica ha estimulado una multitud de aplicaciones de servicios y asistencia novedosos. Paradigmático para muchos escenarios de aplicación son sistemas robóticos de mano-brazo para los cuales los desafíos de precisión, sensibilidad y robustez se presentan junto con los requisitos de agarre seguro. Aunque las manos robóticas aún están muy lejos de sus contrapartes humanas, su rendimiento ha sido mejorado por los nuevos métodos de control. Las aplicaciones prometedoras están evolucionando en los sistemas de tele-manipulación en una variedad de áreas tales como atención médica, producción de fábricas y movilidad.
  6. La IA puede servir a un buen gobierno, incluida la identificación y prevención de transacciones ilegales, por ejemplo, dinero recibido de actividades delictivas como el tráfico de drogas, el tráfico de personas o los trasplantes ilegales. Sin embargo, cuando está solo en manos de las empresas, los ingresos de la IA pueden no ser redistribuidos equitativamente. Estas nuevas tecnologías no deben convertirse en instrumentos para esclavizar a las personas o marginar aún más a los pobres.

La robótica cambiando el futuro del trabajo, la agricultura, la pobreza, la desigualdad y la ecología

 

  1. Revisamos las aplicaciones de la IA (y las tecnologías emergentes relacionadas) en medicina y salud, movilidad y transporte, manufactura y agricultura. Se observaron oportunidades importantes y se dedicó una atención considerable a las aplicaciones de IA/robótica en cada uno de estos dominios, que se consideraron por separado. Sin embargo, una perspectiva sectorial sobre la IA y la robótica tiene limitaciones. Parece necesario obtener una imagen más completa de las conexiones entre las aplicaciones y un enfoque en las políticas públicas que faciliten la equidad y la equidad en general, y que cubran todos los aspectos de IA/robótica.
  2. A menos que se canalice para el beneficio público, la IA puede plantear preocupaciones importantes para la economía y la estabilidad de la sociedad. Los dispositivos computarizados pueden hacer perder puestos de trabajo, con el consiguiente aumento de la disparidad de ingresos y las brechas de conocimiento. Los avances en la automatización y el aumento de la oferta de mano de obra artificial, especialmente en los sectores agrícola e industrial, pueden reducir significativamente el empleo en las economías emergentes. A través de los vínculos dentro de las cadenas de valor globales, los trabajadores de los países de bajos ingresos también pueden verse afectados por los robots en los países de mayores ingresos, lo que podría reducir la necesidad de subcontratar trabajos de rutina a las antiguas regiones de bajos salarios. Sin embargo, el uso de robots también podría aumentar la demanda de mano de obra al reducir el costo de producción que conduce a la expansión industrial. Se carece de estimaciones confiables de los nuevos empleos creados en las industrias que diseñan y fabrican robots, pero son necesarios.
  3. Las implicaciones de la robótica en el empleo y el trabajo es un tema importante de política pública. Las políticas deben apuntar a proporcionar las medidas de seguridad social necesarias para los trabajadores afectados mientras se invierte en el desarrollo de las habilidades necesarias para aprovechar los nuevos puestos de trabajo creados. El estado debe redistribuir las ganancias que se obtienen del trabajo realizado por la robótica. Dicha redistribución podría, por ejemplo, pagar la reeducación de los individuos afectados para que puedan permanecer dentro de la fuerza laboral. En este sentido, es importante recordar que muchas de estas nuevas innovaciones tecnológicas se han logrado con el apoyo de fondos públicos.
  4. Los robots, la inteligencia artificial y el capital digital en general pueden considerarse una base imponible. Actualmente este no es el caso: el trabajo humano está gravado, pero el trabajo robótico no. De esta manera, los sistemas robóticos son subsidiados indirectamente, ya que las empresas pueden compensarlos en sus sistemas contables, reduciendo así los impuestos corporativos. Estas distorsiones que perjudican a los trabajadores humanos, mientras favorecen la inversión en robots, deberían revertirse.
  5. Observamos que las implicaciones, las oportunidades y los riesgos de la inteligencia artificial y la robótica para el desarrollo sostenible y los pobres necesitan más atención. Especialmente las implicaciones para los países de bajos ingresos, los marginados y las mujeres necesitan estudio y consideración en los programas y políticas. Los recursos didácticos de inteligencia artificial en muchas regiones de bajos ingresos son una oportunidad. Como una gran proporción de los pobres viven en pequeñas granjas, particularmente en África y el sur y este de Asia, es importante si tienen acceso o no a tecnologías digitales significativas y la inteligencia artificial. Algunos ejemplos son la certificación de propiedad de la tierra a través de la tecnología blockchain, tecnologías de precisión en el manejo de tierras y cultivos y muchos más.

“El esfuerzo internacional concertado debe dirigirse hacia la identificación de las aplicaciones específicas de la IA que presentan riesgos de escalamiento. Los estados deben acordar medidas concretas para reducir el riesgo de guerras facilitadas por la IA.”

  1. Los impactos ambientales directos e indirectos deben ser más considerados. El monitoreo a través de sensores remotos inteligentes en sistemas terrestres y acuáticos puede mejorarse mucho para evaluar el cambio en la biodiversidad y los impactos de las intervenciones. Sin embargo, también existe el problema de la contaminación por residuos electrónicos vertidos por los países industrializados en países de bajos ingresos. Esto requiere atención urgente al igual que la huella de carbono de la IA y la robótica.

La robótica, la inteligencia artificial y el conflicto militarizado

  1. Dentro de los conflictos militarizados, los sistemas basados ​​en IA (incluidos los robots) pueden servir para una variedad de propósitos, entre otros, extraer personal herido, controlar el cumplimiento de las leyes de guerra o reglas de combate, mejorar la conciencia situacional, la planificación del campo de batalla y tomar decisiones sobre objetivos. Si bien es la última categoría la que plantea los problemas morales más desafiantes, en todos los casos las implicaciones de barreras de guerra potencialmente reducidas, así como los riesgos de los sistemas, deben examinarse cuidadosamente antes de cualquier implementación en la configuración del campo de batalla.
  2. Las preocupaciones por quedarse atrás en la carrera para desarrollar nuevas aplicaciones militares no deben convertirse en una excusa para la investigación de seguridad, las pruebas y la capacitación adecuada. Debido a que el diseño de armas tiende a alejarse de la infraestructura a gran escala hacia sistemas autónomos, descentralizados y miniaturizados, los riesgos de efectos destructivos debidos a los diseños de sistemas y fallas potenciales se verán enormemente aumentados en relación con la mayoría de los sistemas operativos en la actualidad. Este aumento del potencial de las externalidades negativas debe compensarse con una inversión proporcional en seguridad y capacitación. Las herramientas de inteligencia artificial deberían mejorar pero no menoscabar el ejercicio del buen juicio y moral del personal militar.
  3. El esfuerzo internacional concertado debe dirigirse hacia la identificación de las aplicaciones específicas de la IA que presentan riesgos de escalamiento. Los estados deben acordar medidas concretas para reducir el riesgo de guerras facilitadas por la IA y posiblemente en escalada. Se debe prestar atención no sólo a los peligros de la tecnología que reemplaza a las personas en las esferas militares, sino también al peligro que la IA puede representar para el ejercicio de la “reflexión estratégica” en situaciones de conflicto.
  4. Con respecto a los sistemas de armas autónomas letales, dado el estado actual de competencia técnica (y en el futuro previsible), ningún sistema debe implementar esa función en un modo no supervisado. Deben mantenerse líneas de responsabilidad humana para que se pueda garantizar la adhesión a las leyes de guerra internacionalmente reconocidas y se puedan sancionar las violaciones.

Dimensiones sociales, éticas, religiosas y regulatorias de la IA/robótica

 

Además de los ya resaltados, se deben enfatizar los siguientes temas:

 

  1. Los esfuerzos de desarrollo de máquinas inteligentes con apoyo público deben dirigirse al bien común. El impacto en los bienes y servicios públicos, así como en la salud, la educación, la felicidad y la sostenibilidad, debe ser primordial. La IA puede tener sesgos inesperados o consecuencias inhumanas, incluida la segmentación de la sociedad y el sesgo racial y de género, y estos deben abordarse antes de que puedan ocurrir. Estos son temas nacionales y globales y estos últimos necesitan una mayor atención por parte de las Naciones Unidas.
  2. Con respecto a la privacidad, el acceso a nuevos conocimientos y los derechos de información, los pobres están particularmente amenazados debido a su actual falta de poder y voz. La inteligencia artificial y la robótica deben ir acompañadas de un mayor empoderamiento de los pobres a través de la información, la educación y la inversión en habilidades que necesitan mejorar.
  3. El tema del trabajo está en el centro de la Doctrina Social de la Iglesia. Como se indica en Laborem exercens, el acceso a un trabajo significativo es fundamental para la dignidad humana. La eliminación de dicho acceso mediante el uso de máquinas no es aceptable, mientras que la reducción de las cargas de trabajo y los riesgos para la salud del trabajo representan un desarrollo constructivo.
  4. Las políticas deben apuntar a compartir los beneficios del crecimiento de la productividad a través de una combinación de participación en las ganancias, no mediante la subvención de robots, sino a través de la consideración de los impuestos de capital (digitales) y la reducción del tiempo de trabajo dedicado a las tareas de rutina.
  5. Los riesgos de las aplicaciones manipuladoras de la IA para moldear la opinión pública y la interferencia electoral requieren atención y se requieren controles nacionales e internacionales.
  6. La IA y la robótica ofrecen grandes oportunidades y conllevan riesgos, por lo tanto, las regulaciones deben ser diseñadas apropiadamente por instituciones públicas legítimas, sin obstaculizar las oportunidades y no estimular un riesgo y sesgo excesivos. Esto necesita un marco en el que el discurso de la sociedad pública inclusiva sea informado por las ciencias de diferentes disciplinas, y todos los segmentos de la sociedad puedan participar.
  7. Se requieren nuevas formas de regular la economía digital que garanticen la protección adecuada de los datos y la privacidad personal. Además, los valores deónicos tales como “permitido”, “obligatorio”, “prohibido” deben fortalecerse para navegar por la web e interactuar con robots.
  8. Las empresas deben crear juntas éticas y de seguridad, y unirse a organizaciones sin fines de lucro que tengan como objetivo establecer las mejores prácticas y estándares para el despliegue beneficioso de IA/robótica. Se deben desarrollar protocolos adecuados para la seguridad de los robots de IA, como la verificación duplicada por equipos de diseño independientes de un sistema de robots de IA. La aprobación de pruebas éticas y de seguridad, que evalúan, por ejemplo, el impacto social o los prejuicios raciales encubiertos, debe convertirse en un requisito previo para el lanzamiento de un nuevo software de IA. Deben considerarse las juntas civiles externas que realizan evaluaciones recurrentes y transparentes de todas las tecnologías, incluido el ejército.
  9. Los científicos e ingenieros, como diseñadores de dispositivos de IA y dispositivos de robot, tienen la responsabilidad de tratar activamente de garantizar que sus invenciones e innovaciones sean seguras y puedan utilizarse con buenos fines.
Temas:
  • inteligencia artificial
  • Vaticano

Artículos recientes

  • ¿Términos y condiciones? (Cuarta parte)
  • ¿Términos y condiciones? (Tercera parte)
  • ¿Términos y condiciones? (Segunda parte)
  • Los retos de la jornada electoral en las elecciones 2021
  • Prisión preventiva, presunción de inocencia y voto

La Revista en línea

Suscríbase al Newsletter

© Revista Foro Jurídico 2019 Aviso de Privacidad

Input your search keywords and press Enter.
Foro Jurídico
  • Noticias
    • Nacional
    • Política
    • Estados
    • Internacional
    • Instituciones Jurídicas
    • Economía y Finanzas
    • Negocios
    • Despachos Jurídicos
    • Educación
    • Asociaciones
    • Tecnología
    • Cultura / Sociedad / Deportes / Espectáculos
  • La Revista
    • En Portada
    • Editorial
    • Reportaje especial
    • En la opinión
    • Cadalso
    • Entrevistas / Noticias
    • Estados
    • Secciones
      • Abogadas Influyentes
      • Abogado Digital
      • Democracia participativa
      • El Marco del Poder
      • Foro de Propiedad Intelectual
      • Máquina del tiempo
      • Mirador Fiscal
    • Revistas anteriores
  • Radio
  • Columnistas
  • Videos
  • Premio Foro Jurídico

© Revista Foro Jurídico 2019 Aviso de Privacidad