Neurofilosofía

neurofilosofia

Tambien puede usar
las teclas del teclado
y
para navegar

El marco ético europeo sobre Inteligencia Artificial y Robótica Autónoma

12/2021

El armamento robótico autónomo fue uno de los factores que desencadenaron la atención sobre la Inteligencia Artificial (IA) a mediados de la segunda década de siglo XXI. En ese sentido se podrían mover los robots asesinos con capacidad para decidir quién vive o quién muere en el campo de batalla. En un breve espacio de tiempo surgieron iniciativas públicas y privadas como organizaciones, foros, cumbres globales y acuerdos estatales que proclamaban una ética en la que imperaban los principios de la autonomía humana y de hacer sólo el bien. En efecto, el dilema digital refleja las tensiones entre lo técnicamente posible digitalizar y robotizar y el mundo real de lo permitido.

El caso es que los sistemas de IA que ofrecen recomendaciones de productos y servicios a los consumidores no suscitan las mismas preocupaciones éticas que quienes proponen tratamientos médicos críticos o producen sesgos raciales. La preocupación por estos asuntos resulta crucial en tanto que un gran número de derechos fundamentales podrían verse afectados por el uso de la IA, como por ejemplo, la dignidad humana.

En 2019, el Grupo de Expertos en Inteligencia Artificial de la Comisión Europea propuso crear una cultura que garantizara el respeto a los valores de la Unión Europea: una «IA fiable para Europa» concebida desde las directrices de la estrategia industrial y tecnológica «AI Made in Europe» que hemos revisado en otros artículos, y que se constituyó sobre cuatro principios fundamentales. Dos de ellos de calidad ética (el respeto de la autonomía humana y la equidad), y dos técnica (explicabilidad y prevención del daño físico y mental), principios aplicables tanto a los sistemas de IA desarrollados y utilizados en la Unión Europea, como en los sistemas producidos en otros lugares del mundo que se desplegaran en la Unión.

Es de subrayar que las Directrices éticas del Grupo de Expertos en IA ofrecieron a la Comisión Europea una valiosa aportación narrativa con la que contribuir a los debates éticos internacionales, por ejemplo, en la elaboración de los Principios éticos de la OCDE en materia de IA que fueron ratificados en mayo de 2019 por los treinta y seis países de la Organización, más otros seis países que los adoptaron con el apoyo de la Comisión Europea y el G20 que los suscribió al mes siguiente.

Sin embargo, la «IA fiable para Europa» no trató los aspectos jurídicos de la posible responsabilidad de los robots y softbots autónomos, por lo que la Doctora Robot (que hemos estudiado en un artículo anterior sobre la ciencia médica digital) quedó de nuevo desatendida, dejándolo todo en manos del principio general de que las máquinas siguen siendo máquinas y los humanos conservan en todo momento el dominio sobre ellas, un principio antropocéntrico que considera a los robots inteligentes o autónomos como cosas destinadas tan sólo para el uso de los humanos, de igual modo como se valoraba hasta hace bien poco a los animales salvajes y domesticados. En consecuencia, la doctora o doctor Robot no están facultados legalmente para recetar medicamentos y emitir bajas y altas laborales sin supervisión humana.

Quizás sea así, porque nadie sabe con certeza si la IA llegará a adquirir una autonomía elevada con los algoritmos machine learning o porque esta posibilidad se vislumbra todavía lejana, o incluso, porque se considera inabordable en la lógica de las éticas convencionales de los humanos.

Cerramos el presente resumen correspondiente al capítulo XI del libro, afirmando que uno de los grandes retos que tendrán que afrontarse, antes que tarde, se refleja en la problemática de la responsabilidad de la Inteligencia Artificial.

@ArturoGradolí, informático, filósofo, historiador. Doctor en estudios históricos y sociales sobre ciencia, medicina, tecnología y comunicación científica.

Sinopsis libro

Print Friendly, PDF & Email