Un Imperativo de Ingeniería?



Descargar 120,56 Kb.
Página1/3
Fecha de conversión21.06.2017
Tamaño120,56 Kb.
  1   2   3
Un Imperativo de Ingeniería?

En el Código de Ética de la Sociedad Nacional de Ingenieros Profesionales (NSPE), el primer "canon fundamental" es que los ingenieros deberán "mantener primordial la seguridad, la salud y el bienestar del público." Si dando máquinas estándares morales mejoraría el bienestar público y la seguridad, los ingenieros de entonces estadounidenses están gaciones urbanización cerrada por su propio código de ética para que esto ocurra. Dónde podrían empezar? La tarea parece abrumadora, pero todos ingeniería tareas ing son incrementales, basándose en las tecnologías anteriores. En este capítulo, vamos a proporcionar un marco para la comprensión de las vías de la tecnología actual para AMAs sofisticados. Nuestro marco tiene dos dimensiones: la autonomía y la sensibilidad a los valores. Estas dimensiones son independientes, ya que el padre de cualquier adolescente sabe. El aumento de la autonomía no siempre se compensa con una mayor sensibilidad a los valores de los demás; esto es tan cierto de la tecnología, ya que es de los adolescentes. Las herramientas más simples tienen ni la autonomía ni la sensibilidad. Martillos no se levantan y las uñas martillo por su cuenta, ni son sensibles a los pulgares que se interponen en el camino. Pero incluso las tecnologías cerca de la parte baja de las dos dimensiones en nuestro marco pueden tener una especie de "moralidad operativa" para su diseño. Un arma que tiene un mecanismo de seguridad a prueba de niños carece de autonomía y sensibilidad, pero su diseño encarna los valores que el Código de Ética NSPE apoyaría. Uno de los principales logros en el campo de la "ética de la ingeniería" durante los últimos veinticinco años ha sido la toma de conciencia de la forma en que sus propios valores influyen en el proceso de diseño y su sensibilidad a los valores de los demás durante la misma ingenieros. Cuando el proceso de diseño se lleva a cabo con los valores éticos totalmente a la vista, este tipo de "Moral operativa" está totalmente bajo el control de los diseñadores y usuarios de una herramienta.

En el otro extremo teórico son sistemas con gran autonomía y alta sensibilidad a los valores, capaces de actuar como agentes morales dignos de confianza. Que la humanidad no tiene este tipo de tecnología es, por supuesto, el tema central de este libro. Sin embargo, entre la "moralidad operativa" y la agencia moral responsable mentir muchas gradaciones de lo que llamamos sistemas de "moralidad funcional" -desde que simplemente actúan dentro de los estándares aceptables de comportamiento para Intelli sistemas gent capaces de evaluar algunos de los aspectos moralmente significativos de su propia comportamiento.

El reino de la moralidad funcional contiene dos sistemas que tienen autonomía significativa pero poca sensibilidad ética y los que tienen baja autonomía pero de alta sensibilidad ética. Los pilotos automáticos son un ejemplo de la primera. La gente confía en ellos para volar aeronaves complejas en una amplia variedad de condiciones, con la supervisión humana mínima. Ellos son relativamente seguros, y han sido diseñados para respetar otros valores, por ejemplo la comodidad del pasajero en la ejecución de maniobras. Los objetivos de la seguridad y el confort se realizan, sin embargo, de diferentes maneras. La seguridad se mantiene mediante la supervisión directa de aire altitud artesanía y las condiciones ambientales y ajustar continuamente los flaps de las alas y otras superficies de control de la aeronave para mantener el rumbo deseado. Comodidad de los pasajeros no se supervisa directamente, y en la medida en que se proporciona para el, es por precodificación límites de maniobra específicos en los parámetros de funcionamiento del piloto automático. El avión es capaz de banca mucho más pronunciada de lo que hace cuando se ejecuta una vez, pero el piloto automático se programa no convertir tan bruscamente como molestar a los pasajeros. Bajo condiciones normales de operación, el diseño del piloto automático mantiene operando dentro de los límites de la moralidad funcional. En condiciones inusuales, un piloto humano que es consciente de las necesidades especiales de pasajeros, por ejemplo, un pasajero enfermo, o deseos especiales de pasajeros, por ejemplo Joyriders en busca de emociones, puede ajustar su vuelo en consecuencia. Una cantidad significativa de autonomía sin ningún tipo de sensibilidad moral específica pone pilotos automáticos en algún lugar hasta el eje izquierdo de la figura 2.1.

Un ejemplo de los sistemas que tienen poca autonomía, pero un cierto grado de sensibilidad ética, que cae sobre el eje de la derecha de la figura 1, es un sistema de soporte de decisiones éticas, que proporciona los tomadores de decisiones con acceso a la información perti- moralmente rel-. La mayoría de estos sistemas que existen caen dentro del ámbito de la moralidad operativo en lugar de funcional. Además, cuando se ocupan de cuestiones éticas, por lo general con fines educativos. Los programas están estructurados para enseñar los principios generales, no para analizar nuevos casos. Por ejemplo, el software camina estudiantes a través de casos de importancia histórica o hipotéticas. Sin embargo, algunos programas ayudan a los médicos seleccionar éticamente apropiada comieron cursos de acción, por ejemplo MedEthEx, un sistema experto en ética médica diseñada por el equipo de marido y mujer del científico de la computación Michael Anderson y filósofo Susan Anderson. En efecto, MedEthEx involucra en algún razonamiento moral rudimentaria.

Suponga que usted es un médico ante un paciente mentalmente competente que se ha negado un tratamiento que usted piensa representa su mejor esperanza de supervivencia. En caso de que vuelva a intentar persuadirla (una posible violación del respeto a la autonomía del paciente) o debe usted aceptar su decisión (una posible violación de su deber de proporcionar la atención más benéfica)? El prototipo MedEthEx solicita un cuidador para responder a una serie de preguntas sobre el caso. Luego, sobre la base de un modelo de la opinión de expertos aprendido de casos similares, que emite un dictamen sobre la manera éticamente adecuada de proceder. Vamos a describir la teoría ética detrás MedEthEx con más detalle más adelante. Por ahora, lo importante es que el sistema de los Anderson no tiene autonomía y no es una AMA en toda regla, pero tiene una especie de moralidad funcional que proporciona una plataforma para un mayor desarrollo.

Es importante entender que estos ejemplos son ilustrativos solamente. Cada sistema es sólo una pequeña distancia a lo largo de uno de los ejes de la figura 1. Los lotes piloto automático autonomía sólo en un dominio muy circunscrito. El piloto automático no puede salir de la cabina para consolar a un pasajero angustiada. MedEthEx da consejos sólo dentro de un rango muy pequeño de casos. El software es totalmente dependiente de los humanos para proporcionar la información pertinente a sus casos, y los practicantes deben decidir si debe o no seguir sus recomendaciones. Sin embargo, las cuestiones éticas surgen incluso en estos dominios restringidos, y la parte de ingeniería de la máquina de la moralidad se basarán en estos inicios básicos.

Estos pasos independientes a lo largo de cada dimensión son relevantes para la máquina de la moralidad, y también lo son los intentos de avanzar en ambas dimensiones simultáneamente. Uno de estos proyectos fue Kismet, un robot desarrollado por estudiantes graduados en el MIT bajo la dirección de Rodney Brooks y que más se identifica con el trabajo de Cynthia Breazeal. Kismet representa un intento de combinar la capacidad de respuesta emocional a la actividad autónoma en un robot. Cabeza robótica de Kismet tiene características caricaturescas típicamente asociados con los bebés y los animales jóvenes. Moviendo su cabeza, las orejas, las cejas, los párpados y la boca es capaz de mostrar ocho estados emocionales, como el miedo, la sorpresa, el interés y la tristeza, así como cerca de sus ojos y encerrarse en una pose similar al sueño. El estado emocional de las exposiciones reales robot se determina por su análisis de la entonación de voz del hablante y otros factores, por ejemplo, si el sistema está tratando de estimulación o está estimulado. Kismet puede devolver una mirada y dirigir su atención a donde un puntos individuales.

Kismet es programada a tomar turnos, ya que se dedica a lo que parece ser una conversación, en espera de un espacio de silencio antes de interponer una respuesta a la voz humana. Mientras que el lenguaje aparente Kismet habla es un galimatías, puede parecer bastante sensible a las señales sociales, por ejemplo, la nación en- voz del que habla el robot interactúa con-a pesar de que el sistema no tiene la comprensión real de lo que piensa el ser humano o ya es decir. Por ejemplo, entonaciones de voz que pueden ser interpretadas como regaño provocan el robot de mirando hacia abajo con una expresión de evidente vergüenza.

Kismet, ahora jubilado y en exhibición en el Museo del MIT, fue diseñado para leer las señales sociales muy básicas y responder con sus propios simples gestos de comportamiento. Entre las capacidades del Kismet son reacciones a la atención y la proximidad de un ser humano. Por ejemplo, Kismet puede retirarse cuando una persona se inclina demasiado cerca. La medida en que es aceptable para una persona para estar en la cara de otra es tal vez más cerca de la etiqueta de la ética, y varía de cultura a cultura tura. Sin embargo, las acciones de Kismet son un ejemplo de moralidad operativa debido a que los programadores han aprovechado los valores que son importantes para el establecimiento de la confianza y la cooperación. Kismet no tiene representación explícita de los valores y no hay capacidad para razonar acerca de los valores. A pesar de estas limitaciones, muchas personas encuentran sus interacciones con Kismet muy convincente.

Mediante la colocación de Kismet en el reino de la moralidad en funcionamiento, cerca del origen de los ejes en la figura 1, no estamos siendo despectivo. El campo de la moralidad artificial debe construir en las plataformas existentes y Kismet es el resultado de algún las ideas importantes sobre cómo hacer que las máquinas se comportan de maneras que la gente encuentra atractivo. Como un experimento de robótica social, Kismet era muy con éxito ful en demostrar cómo es posible que los robots para desencadenar respuestas sociales tivos naturales y intuiciones en las personas.

Los pilotos automáticos, sistemas de apoyo a las decisiones, y los robots con capacidades básicas para participar en interacciones cargadas de emoción, proporcionan puntos de partida para el campo de la moral artificial. Sistemas como estos, que están dentro del dominio de la moral oa las buenas costumbres operativo funcional muy limitada, son extensiones relativamente directas de valores de sus diseñadores. Los diseñadores tienen que anticipar la mayoría de las circunstancias en que sus sistemas operarán, y las acciones disponibles en esas circunstancias se mantienen dentro de límites estrechos. Manuales de seguridad escritas intentan descargar el problema del apropiado, seguro y ético el uso de los operadores, pero no siempre tienen éxito en hacerlo! Como la tecnología para la toma de decisión autónoma se hace más generalizada, prevemos (ro) boticists darse cuenta de que su propio código profesional hace que el desarrollo de los AMAs un imperativo ingeniería.

Algunos pueden preguntarse si no estamos tratando de alcanzar la luna, cuando deberíamos estar concentrado en unos cuantos trucos simples. La tarea de los sistemas de diseño es bastante difícil sin la incorporación de la noción mal definida de valores. Tenga en cuenta los sistemas de aprobación de las compras con tarjeta de crédito. ¿No deberían las personas estar contentos de que estos sistemas protegen los clientes y los bancos de compras fraudulentas, aunque a veces los clientes son inconvenientes cuando se les niegan sus intentos de compras? ("PC dice que no...") El software que analiza la actividad de los patrones fraudulentos siempre se puede mejorar, así que por qué no concentrarse en que, sin tener que preocuparse por la construcción de razonamiento ético explícito en el sistema?

Es cierto, por supuesto, que el análisis de patrones se puede mejorar, pero sólo hasta cierto límite. Los ingenieros de software y banqueros que diseñar e implementar el sistema no puede predecir perfectamente todas las circunstancias en las que la gente va a tratar de usar sus tarjetas de crédito. Compras perfectamente inocentes, ya veces incluso compras de emergencia, serán bloqueados debido a que se considera "sospechosa" por las computadoras del banco. A partir de (y de un banquero) Punto de un ingeniero de vista, el problema es de equilibrar una tasa de falsos positivos aceptable (erróneamente identificar compras inocentes como fraudulenta) contra una tasa de falsos negativos inaceptables (erróneamente no identificar actividad fraudulenta). Para los banqueros res, lo que es aceptable es principalmente una cuestión de lo que cuesta que pueden permitirse el lujo de transmitir a sus clientes. La mayoría de los clientes están dispuestos a aceptar las molestias oca- sional (y vergüenza) de una compra negado si esto significa que están protegidos contra las pérdidas financieras y dolores de cabeza que pudiera incurrir a partir de una tarjeta de crédito robada. Algunos clientes preocuparse por las implicaciones para la privacidad que se derivan de la capacidad del banco para atar los patrones de uso de juntas. En este libro, estamos menos preocupados por los efectos nefastos de las personas que tienen acceso a estas bases de datos y más preocupados por las capacidades de los propios ordenadores de reconocer cuando lo ético que hacer es extender el crédito, incluso cuando el análisis sugieren un mayor riesgo para el banco. Debido a que el enfoque existente para el análisis de patrones tiene límites inherentes para proteger lo que la gente valora, los ingenieros están obligados por sus propios ideales a seguir enfoques alternativos que prometen ir más allá de esos límites.

Tal vez usted piensa que estamos equivocados si creemos que als, ingeniería Lo ideal deben prevalecer sobre los objetivos corporativos. Las compañías de crédito, después de todo, no están obligados contractualmente a aprobar cualquier compra, así que no hay problema ético a todos los involucrados en el uso de sistemas automatizados de aprobación. Pero aceptar esta línea de razonamiento ya es tomar una posición sobre una cuestión moral sustantivo, es decir, si la moral corporativa se limita a con- cuestiones contractuales. Los diseñadores de sistemas autónomos que optan por hacer caso omiso de las consecuencias más amplias de las decisiones tomadas por sus máquinas están incorporando implícitamente un conjunto particular de valores en estos sistemas. Ya sea que los sistemas autónomos deben considerar sólo los factores relevantes a la rentabilidad de las empresas que los emplean, y los acuerdos contractuales que existen entre las empresas y sus clientes, es en sí mismo una pregunta acerca de la ética.

Tal vez usted piensa que nosotros doblemente ingenuos si creemos que los argumentos morales pueden hacer caso omiso de la línea de fondo. Creemos, sin embargo, que las formas cada vez más sofisticadas de la moralidad funcional, y, finalmente AMAs en toda regla, en realidad se beneficiarán empresas financieramente.

Una fuente de este beneficio será que estos sistemas permitirán a offerbetterservicethanthecompetition.Theimperfectpurchaseauthorization sistemas actualmente en uso conducen a la frustración del cliente y, a veces la deserción a otras empresas. Si tienes la suerte de conseguir a través de un ator operación humana, como Colin fue cuando su compra de combustible se le negó en California, es posible que pueda haber el problema fijo. Pero todo el mundo se ha encontrado con situaciones con los sistemas telefónicos automatizados donde la intervención humana fue capaz de indisponibilidad. En el esfuerzo para mejorar lo que estamos llamando la moral operativa de estos sistemas contestadores, las grandes empresas están tratando de escribir software para detectar frustrado (así como "importantes") a los clientes y la ruta de forma rápida a un agente humano. Sin embargo, incluso cuando uno no llegan a un ser humano, que podría estar trabajando dentro de las restricciones establecidas por un programa de ordenador y puede carecer de autonomía suficiente para resolver el problema. Clientes frustrados son malos para negocio, mientras que la línea de fondo impulsa corporaciones para incorporar lo que en los programas de las máquinas más y más sin supervisión decisión. El software que es sensible a los valores de los clientes y puede tomar decisiones que se aproximan a las de un buen agente moralmente ayudará a la línea de fondo, no duele ella.

El apagón eléctrico de 2003 en el noreste de Estados Unidos subrayó el hecho de que las compañías eléctricas dependían de tecnología obsoleta. Las actualizaciones a los sistemas de software y control harán aún más autónoma que las anteriores, que fueron implicados en el cierre. La complejidad adicional hará que los sistemas aún menos adhesión ble para dirigir la vigilancia humana, y esto a su vez requerirá un nuevo nivel de auto-monitoreo. Debido a los errores del operador y la incapacidad de los seres humanos para monitorear todo el estado de software de sistema, las presiones para una mayor automatización seguirán aumentando. Incluso las actualizaciones del sistema y el tiempo de inactividad programado para los componentes de la red podrían ellos mismos ser manejados de manera autónoma por la evaluación continua de los equipos de los de una amplia gama de factores. Esto introduce un segundo nivel de la toma de decisiones en el que el sistema de control se convierte en auto-supervisión en un grado significativo.

Estas consideraciones indican la necesidad de ir más allá de simples sistemas de control de sistemas que aseguren las funciones de la red dentro de los parámetros de seguridad (moralidad operativa) a sistemas capaces de evaluar las opciones, tanto en el nivel primario de atención al cliente y el nivel secundario de la autogestión. Estos sistemas tendrán que manejar, a la velocidad de la computación moderna, situaciones complejas en las que se toman decisiones y se toman cursos de acción que no podría haber sido previsto por los diseñadores y programadores de software.

Con estos ejemplos, hemos tratado de hacer plausible que las tecnologías existentes proporcionan diversos puntos de partida para el progreso hacia la AMA. Progreso incremental es a menudo difícil de ver y difícil de predecir. Incluso dentro de nuestro marco bidimensional simplista, hay varias rutas de las tecnologías actuales a la agencia moral completo representado en la esquina superior derecha de la figura 2.1. En nuestro enfoque a la moral artificial, tomamos el progreso a lo largo de la dimensión de la autonomía por hecho-que está sucediendo y lo seguiremos a suceder. El reto para la disciplina de la moralidad artificial es cómo moverse en la dirección especificada por el otro eje: sensibilidad a las consideraciones morales.

Sistemas de apoyo a las decisiones ilustran una trayectoria en el desarrollo de sistemas inteligentes en la que las tecnologías sensibles a las consideraciones morales pueden desarrollar de forma independiente de los sistemas con el aumento de la autonomía. Este tra- yectoria, lo que deja la toma de decisiones en manos de los seres humanos, parece probable que se mueva más allá de los sistemas de apoyo a las decisiones externas a las fusiones más íntimos de los seres humanos y la tecnología. Por lo tanto, el aumento de la autonomía representa sólo una trayectoria en el desarrollo de sistemas inteligentes.

Tal vez una de las escenas más memorables de las películas de ciencia ficción fue el debut del ED-209, un robot grande, feo, metálico, en la película de 1987 hit Robocop. El prototipo de un oficial de policía robot, ED-209 fue programado para disparar los delincuentes que no pudieron abandonar sus armas después de repetidas advertencias. En Robocop, Kinney, un joven ejecutivo, voluntarios ansiosamente a jugar el papel del criminal para la demostración de la ED-209 a la placa. El robot pronuncia su advertencia en voz estándar monótono generado por computadora, y Kinney deja caer su arma. La advertencia se repite dos veces más. A continuación, el robot lo mata con un chorro de balas.

ED-209 representa un autónomo, o por lo menos semiautónoma, robot. En la película, el fracaso de la ED-209 es un pequeño contratiempo para Omni Consumer Products, como otro equipo ya está desarrollando una estrategia alternativa para combatir el crimen-Robocop-un cyborg fusionar el cerebro de un oficial de muertos a AI.

Muchos teóricos creen que cyborgs serán la consecuencia natural de la actual investigación de TI, neuroprosthethics, neurofarmacología, la nanotecnología y terapia génica. La fusión de los seres humanos con sus tecnologías plantea diferentes cuestiones éticas que el desarrollo de sistemas autónomos. Es de suponer que el componente humano de un cyborg proporcionaría sensibilidad a consideraciones morales, aunque una preocupación ética es que la tecnología implantada no debe interferir con la autonomía y morales facultades del ser humano. Este es un problema que se plantea en el emergente campo de la neuroética. Problemas en ética de la investigación, la justicia social y la mejora de la vida también surgen cuando se considera el aumento de los seres humanos de la intimidad están forjando con sus tecnologías. Sin embargo, la preocupación social más grande es si el surgimiento de una cultura cyborg es deseable.

Robocop y el ED-209 representan dos trayectorias diferentes en el desarrollo de: AI bajo el control directo de los humanos y los sistemas autónomos capaces de funcionar de manera independiente. Aquí, lo importante a destacar es que los avances en apoyo a la decisión moralmente sensible tecnología y neuroprótesis podrían ser adaptados para mejorar los sistemas autónomos.

Categorías de Moor de Agentes éticas

James Moor, profesor de filosofía en la universidad de Dartmouth, una de las figuras fundacionales en el campo de la ética informática, ha propuesto un esquema jerárquico para clasificar AMAs. En el nivel más bajo es lo que él llama "agentes de impacto ético" -básicamente cualquier máquina que se puede evaluar por sus consecuencias éticas. Propio lugar bonito ejemplo del Moro es el reemplazo de chicos jóvenes con los robots en la ocupación peligrosa del jinete de camellos en Qatar. De hecho, nos parece que todos (ro) bots tienen impactos éticos, aunque en algunos casos pueden ser más difíciles de discernir que otros.

En el siguiente nivel son lo Moor llama "agentes éticos implícitos": máquinas cuyos diseñadores han hecho un esfuerzo para diseñar de modo que no tienen efectos negativos éticos, abordando la seguridad y problemas de fiabilidad cal crítico durante el proceso de diseño. Podría decirse que todos (ro) contra los robots deben ser diseñados para ser agentes éticas implícitas, en cuanto a los diseñadores son negligentes si no logran construir en los procesos que garantizan la seguridad y la fiabilidad.

Luego vienen "agentes éticos explícitos": máquinas que razonar sobre ics et- utilizando categorías éticas como parte de su programación interna, tal vez usando diversas formas de la lógica "deóntica" que se han desarrollado para los deberes presentadoras sentantes y obligaciones, o una variedad de otras técnicas.

Más allá de todo esto se encuentran agentes éticos completos: aquellos que pueden hacer juicios morales explícitos y son generalmente bastante competente en la justificación de tales decisiones. Este nivel de rendimiento a menudo se presume que requieren una capacidad de conciencia, la intencionalidad, y el libre albedrío. Si cualquiera de estos tres es deficiente en un contexto humano, entonces la persona de la agencia moral y culpabilidad legal entra en cuestión.

Si bien es relativamente fácil imaginar sistemas artificiales que son "impacto ético" o agentes "implícitos morales", la agencia moral explícito plantea desafíos de culto más tades. Muchos filósofos (y algunos científicos) argumentan enérgicamente que es imposible tener máquinas que son agentes éticos completos. Estos filósofos y los científicos dudan de que los seres humanos pueden crear agentes artificiales con la conciencia, la intencionalidad, y el libre albedrío, y mantienen que hay una línea brillante separar agentes morales explícitas de los agentes morales completos.

Moor sostiene que agentes éticos explícitos deben ser el objetivo del emergente campo de la ética de la máquina. Ya sea que incluso es posible hacer nada más, según él, no puede ser resuelta por el argumento filosófico o por los experimentos de ingeniería en un futuro próximo. Estamos de acuerdo con la estrategia de tak- ing pequeños pasos. Mientras que las categorías de Moor no se asignan directamente a nuestro gráfico de la autonomía y la sensibilidad a las características moralmente relevantes, pensamos que son útiles para especificar el rango de tareas que enfrenta la ética de la máquina. Sin embargo, ellos no hacen mucho para especificar el proceso de construcción de los agentes morales operacionales y funcionales. Es la construcción de agentes éticos implícitos un trampolín hacia la construcción de agentes éticos explícitos? Moor no nos dice, y en realidad no es su preocupación de que lo haga.

Nuestra idea es que el desarrollo de la tecnología se encuentra en una interacción entre el aumento de la autonomía y el aumento de la sensibilidad. Como (ro) contra los robots evolucionan gradualmente hacia AMAs convertirse, tal vez no sea posible trazar líneas nítidas que decir cuando han pasado de ser un tipo de agente de ética a otro en el esquema de Moor. Con el aumento de la autonomía viene la necesidad de ingenieros para hacer frente a los problemas de seguridad y fiabilidad más amplios. Algunas de esas necesidades puede implicar representación explícita de categorías éticas y principios, y otras no. Nuestra conjetura es que los ingenieros se sumarán estas capacidades de manera poco sistemática. El aumento de la autonomía de los robots (ro) es un proceso que ya está en marcha. El reto para la disciplina de la moralidad artificial es cómo moverse en la dirección especificada por el otro eje: sensibilidad a las consideraciones morales.

Sensibilidad a las consideraciones morales puede significar varias cosas para un AMA. Una distinción útil es ofrecido por Drew McDermott, profesor de Ciencias de la Computación en la Universidad de Yale y miembro honorario de la Asociación para el Avance de la Inteligencia Artificial. McDermott sostiene que a los efectos de diseñar AMAs es importante tener en cuenta la diferencia entre los razonadores éticos y tomadores de decisiones éticas. Gran parte de las ideas iniciales sobre cómo construir máquinas morales no ha perseguido la toma de decisiones morales en el sentido de McDermott, pero en su lugar se ha centrado en la adaptación de las herramientas de razonamiento utilizados en una amplia gama de sistemas expertos para el razonamiento ético.

Por ejemplo, este es el enfoque propuesto por Blay Whitby, un miembro de la facultad en Ciencias de la Computación e Inteligencia Artificial de la Universidad de Sussex en Brighton, Inglaterra. Whitby, que ha estado escribiendo acerca de las dimensiones sociales y éticas de la informática desde hace más de veinte años, incluye un capítulo sobre "La Representación del ordenador del razonamiento moral" en su libro Reflexiones sobre AI 1995. Considera en ese capítulo cómo el condicional if-then reglas utilizadas por los sistemas expertos podría ser adaptado para el razonamiento moral en aplicaciones legales y otros. Whitby es muy consciente de las dificultades inherentes a la construcción de razonadores morales y de las limitaciones de ing rely- sobre solo razonamiento abstracto.

Del mismo modo, McDermott señala que incluso si se pudiera resolver los difíciles retos que conlleva en los sistemas que pueden razonar acerca de la ética de construcción, estos agentes caerían lejano lejos de ser responsables de tomar decisiones éticas. El contraste con lo que el razonamiento ético, escribiendo ético decisión cal "La capacidad de hacer la toma de decisiones ético, sin embargo, es necesario conocer lo que es un conflicto ético es, es decir, un enfrentamiento entre el interés propio y lo que prescribe la ética". En opinión de McDermott, un agente sólo puede conocer lo que es un conflicto ético es y será un verdadero fabricante de decisión moral si ese agente tiene suficiente voluntad a veces optar por actuar en su propio interés cuando eso va en contra de la prescripción moral.
Retos de ingeniería real son los más perseguidos con criterios claros para el éxito. ¿Cómo podría uno desarrollar criterios de sensibilidad moral o la agencia moral? Alan Turing, uno de los padres de la AI, se enfrentó a un problema similar en ing try- para determinar si un equipo es inteligente. Turing fue un matemático británico cuyos esfuerzos en tiempos de guerra para romper el código alemán fueron fundamentales en la victoria de los aliados. Antes de la guerra, Turing había desarrollado una representación matemática de máquinas y programas que le permitieron afirmar con precisión qué funciones matemática cualquier posible máquina podría calcular. Durante y después de la guerra, Turing volvió sus ideas abstractas en máquinas reales, los precursores de la computadora digital moderna. En su artículo 1.950 "Computing Machinery e Inteligencia," quizás el artículo más influyente en la filosofía de la IA, Turing propuso para eludir el problema de definir la inteligencia mediante la aplicación de una prueba práctica: ¿podría una persona diga una máquina de un ser humano sobre la base única de sus respuestas conversacional en un intercambio de sólo texto? Según Turing, si un experto no puede decir la diferencia entre el ordenador y la persona, el ordenador debe ser considerado inteligente para todos los propósitos prácticos. Esta norma ha sido ampliamente conocida como la prueba de Turing. El criterio tiene inconvenientes, pero, no obstante, presenta una meta clara para que los ingenieros persiguen en la construcción de sistemas tual ligent.

Podría desarrollarse una prueba de Turing moral útil? Hablaremos de esto más tarde. La propuesta es probable que sea tan polémico (y posiblemente inalcanzable) como la prueba de Turing originales. Por el momento, cada proyecto dirigido a Menting en práctica algunos aspectos de la toma de decisiones morales en la IA tendrá una especificación de criterios para juzgar su éxito. Diferentes criterios se traducirá en diferentes énfasis en características tales como la consistencia lógica, la lengua, o la inteligencia emocional.

Antes de entrar en los detalles de cómo construir y evaluar AMAs, sin embargo, vamos a tratar dos tipos de preocupaciones que con frecuencia encontramos cuando pre- senta este trabajo. ¿Cuáles serán las consecuencias humanas de tratar de mecanizar la toma de decisiones morales? Y es el intento de convertir las máquinas en agentes inteligentes como mal dirigida como la búsqueda de los alquimistas de convertir el plomo en oro?

  1   2   3


La base de datos está protegida por derechos de autor ©absta.info 2016
enviar mensaje

    Página principal