The International and Multi-Regional Membership Center of Latinos in the USA
Welcome to you all!
¿Debemos Temer La Inteligencia Artificial?
PuraVidaCommunity
Introducción
Antes de que el concepto de Inteligencia Artificial llegara a ser acuñado alrededor de 1955, la gente había
discutido sobre la naturaleza de la Inteligencia durante décadas. La cuestión central era la comprensión de lo
que es inteligencia. Para ofrecer una definición de inteligencia, hay que establecer primero algunas reglas o
pautas que nos ayuden a lograr la claridad y evitar la ambigüedad dentro de la definición misma. El asunto
como parte de lo que se llama metodología científica es inmenso y fuera del alcance de este artículo, sin
embargo, para establecer un punto de referencia, aquí tienes una definición científica de lo que es la
inteligencia.
La inteligencia es la capacidad de hacer una acción apropiada bajo un estímulo impredecible.
Basado en esta definición de inteligencia, podemos encontrar inteligencia alrededor del planeta Tierra. Si se
aproxima una llama a una hormiga, por ejemplo, cambiará de dirección para escapar de la llama. Nadie predijo
que encenderías un fósforo y se lo acercarías a la hormiga. El estímulo es completamente impredecible. El acto
de alejarse de la llama y no ser destruido es un acto apropiado para el estímulo, de acuerdo con la definición, la
hormiga mostró inteligencia. La definición no ofrece un criterio de medición ni establece grados de inteligencia. De acuerdo con esta definición una
hormiga es inteligente.
Lejos del ámbito animal y volviendo nuestra atención a nuestra vida cotidiana algunas de las preguntas válidas con respecto a nuestra interacción
personal con dispositivos electrónicos pueden ser las siguientes:
¿Qué califica una computadora para ser un dispositivo inteligente?
Mejor aún, su computadora es inteligente?
¿Es su iPhone o su teléfono Android inteligente?
BY SAMUEL C. BAXTER AND DAVID J. LITAVSKY
MARCH 1, 2017
La gente se preocupa de que los aparatos o dispositivos inteligentes y la tecnología similar se convertirán en máquinas super inteligentes y fuera de
control que subyugan al mundo. La respuesta a si debe preocuparse por esto revela un hecho fundamental -aunque poco conocido- acerca de su mente.
Comprobar el clima es una parte integral de la mayoría de las rutinas de la mañana. Sin embargo, ya no es necesario mirar por la ventana. En su lugar,
simplemente habla en su teléfono u otro dispositivo similar.
"Hola, Siri, ¿necesito mi paraguas?"
"Alexa, ¿hará calor esta tarde?"
"OK Google, ¿cuánta nieve tendremos?"
"Oye, Cortana, ¿debería llevar una chaqueta?"
Tomemos la última pregunta. Su dispositivo inteligente responde: "Puedes considerar usar una chaqueta ligera, ya que estamos a 43 grados Fahrenheit
con una posibilidad ligera de lluvia".
Usted acaba de tener una conversación con una inteligencia artificial en ciernes (AI). Si aún no lo hace, acostúmbrese a pedirle a un dispositivo qué hacer,
ya que algún día aprenderá a manejar sus controles, le dirá qué hacer o incluso comenzará a tener sentimientos en su contra.
Al menos eso es lo que muchas de las principales mentes en ciencia y tecnología quieren que pensemos. Stephen Hawking, Elon Musk, Bill Gates, Steve
Wozniak, Neil deGrasse Tyson y otros temen que AI pueda asumir el control en los próximos años.
Desde que el término "inteligencia artificial" fue acuñado por el informático estadounidense John McCarthy en 1955, la idea de que las computadoras
pudieran aprender a escuchar, hablar, pensar y sentir emociones ha permeado la cultura pop. Basta pensar en las películas 2001: Una odisea del espacio,
The Terminator, y The Matrix. Ingresos recientes incluyen a Ella, Ex Machina, y Avengers: Age of Ultron.
Aunque no están a la altura de sus contrapartes ficticios, los avances actuales de AI
son impresionantes.
Nos conduce alrededor: la tecnología del piloto automático de los motores de Tesla
está cerca de proporcionar autonomía completa, que permitirá que un vehículo
reemplace completamente al conductor.
Sirven como nuestros asesores financieros: hay bots de chat en línea que ofrecen
soporte para tarjetas de crédito o clientes bancarios.
Reporta la noticia: medios de comunicación tales como Associated Press, Foxand
Yahoo! usan programas informáticos para escribir informes financieros simples,
resúmenes y resúmenes de noticias y deportes.
Las empresas también están desarrollando aplicaciones de AI que proporcionan
respuestas en profundidad a preguntas "no fácticas", tales como asesoramiento
sobre relaciones. Algunos programadores incluso incluyen emociones sintéticas para conectarse mejor con los usuarios.
Lo que más preocupa a la gente es que algunas computadoras piensan en un nivel completamente diferente al
de los humanos. Sólo recientemente un IA ha sido capaz de vencer a los mejores jugadores en el antiguo juego
chino de Go. Piense en ello como ajedrez con esteroides. El ajedrez tiene 20 movimientos posibles por turno.
Go tiene 200.
La IA utiliza constantemente movimientos que, al principio, parecen ser errores para los mejores jugadores.
Las decisiones por el conocimiento de desafío informático pasado a través de siglos sobre cómo jugar el juego,
sin embargo, resultan ser tácticas ganadoras.
Las máquinas capaces de distinguir a los seres humanos parecen ser una espada de doble filo. Si bien pueden
ayudarnos a ver las cosas bajo una nueva luz -y hacer grandes saltos en la industria, la ciencia y la tecnología-,
¿qué sucede si empiezan a pensar por sí mismos?
En un corto documental titulado "The Turing Test: Microsoft's Artificial Intelligence Meltdown", de
Journeyman Pictures, un robot AI basado en el escritor de ciencia ficción Philip K. Dick proporcionó una
respuesta humorística, pero contundente. Se le preguntó: "¿Crees que los robots se harán cargo del mundo?"
Después de detenerse como si pensara, el humanoide respondió: "Todos ustedes tienen las grandes preguntas hoy. Pero tú eres mi amigo, y recordaré a
mis amigos, y seré bueno contigo. Así que no te preocupes. Incluso si evoluciono a Terminator, seguiré siendo amable contigo. Te mantendré caliente y
seguro en mi zoológico de gente, donde puedo vigilarte recordando los buenos tiempos pasados.
El intercambio dio a los desarrolladores una buena risa, a la que el autor-robo respondió con una sonrisa. Sin embargo, resumió los temores que muchos
tienen sobre el futuro de la IA.
La Llegada de los Humanoides
Los expertos en inteligencia artificial creen que la próxima generación de AI será adaptativa,
autoaprendizaje, intuitiva y capaz de cambiar sus propias reglas de programación. Hablan de un tiempo en
que las máquinas excederán la inteligencia de los seres humanos -un momento definido como
"singularidad" -que los expertos creen que podría tener lugar para 2035 o poco después.
Esto podría significar un futuro más brillante para la humanidad. De hecho, la super AI puede ser una
necesidad debido a la explosión del conocimiento del hombre. Pero estos avances son una espada de
doble filo.
De acuerdo con The Observer: "El procesamiento basado en humanos será simplemente ineficiente cuando
se enfrente con las enormes cantidades de datos que estamos adquiriendo cada día. En el pasado, las
máquinas se utilizaron en algunas industrias para completar pequeñas tareas dentro de un flujo de trabajo.
Ahora el guión ha cambiado: las máquinas están haciendo casi todo, y los humanos están llenando las
lagunas. Curiosamente, las tareas realizadas por máquinas autónomas requieren los tipos de capacidad de
toma de decisiones y el conocimiento contextual que sólo una década atrás sólo los seres humanos
poseían ".
"En un futuro cercano, los sistemas inconscientes autónomos controlados por la IA pueden reemplazar nuestros actuales compromisos personales
humanos y contribuciones en el trabajo. La posibilidad de un "futuro sin trabajo" ... podría no ser tan exagerado ".
Mientras que los críticos ven las mentes del robot que toman trabajos de los seres humanos como negativo, otros sienten que permitiría que los
trabajadores se centren en mayores búsquedas.
El autor de 2001: Una odisea del espacio, Arthur C. Clarke, escribió esto en los años 60: "En la sociedad del día después de mañana no habrá lugar para
cualquier persona tan ignorante como el graduado medio de la universidad del mediados del vigésimo siglo. Si parece un objetivo imposible llevar a toda la
población del planeta a niveles superuniversitarios, recuerde que hace unos siglos habría parecido igualmente impensable que todos pudieran leer. Hoy
tenemos que fijar nuestras vistas mucho más arriba, y no es irrealista para hacer tal cosa. "
Un mundo donde todos puedan alcanzar "niveles superuniversitarios" parece atractivo.
¿La otra cara? Un mundo donde la gente tiene demasiado tiempo en sus manos significaría más tiempo para ahondar en las facetas más oscuras de la
naturaleza humana.
Dondequiera que volteamos con respecto a la IA, nos topamos con áreas grises similares y retos morales.
Territorio inexplorado
Algo tan simple como conducir automóviles crea problemas éticos
difíciles. Si cada uno tuviera tales automóviles, ahorraría 300.000 vidas
por década en América. También significaría el fin del tráfico diario de
hora punta. Además, piense en todo lo que podría lograr durante su
viaje matutino si no tenía que centrarse en el camino!
Sin embargo, ¿quién tiene la culpa de las decisiones que toma una
máquina durante un accidente?
Por ejemplo, si un automóvil sin conductor se acerca súbitamente a
una multitud de personas que caminan por su camino, ¿debería
programarse el automóvil para minimizar la pérdida de vidas, incluso a
riesgo de los ocupantes del automóvil? ¿O debería proteger a los
ocupantes a toda costa, aunque eso signifique herir a otros?
Fortune intervino en el debate, citando a Chris Gerdes, director de tecnología del Departamento de Transporte de Estados Unidos: "El noventa y cuatro
por ciento de las llamadas acciones pasadas durante una colisión automovilística son el resultado del juicio humano" . "Los automóviles autodirigidos
tienen esta promesa de eliminar al ser humano de esa ecuación", dijo. Eso no es trivial.
"La captura: Con los automóviles de conducción automática que ha cambiado el error de los conductores humanos a programador humano, dijo Gerdes.
Las técnicas de aprendizaje automático pueden mejorar el resultado, pero no son perfectas.
"Y luego hay preocupaciones éticas. Si se programa una colisión, eso significa que es premeditado ", dijo Patrick Lin, director del Grupo de Ética y
Ciencias Emergentes de la Universidad Estatal Politécnica de California. ¿Eso es legal? -Esto es toda ley no comprobada -dijo-.
Otros especulan sobre el lado más oscuro de un futuro post-singularidad. ¿Qué pasa si AI comienza a ver a los seres humanos como el problema? ¿Qué
pasa si comienzan a actuar por interés propio? ¿Y qué sucede si esos intereses entran en conflicto con los intereses humanos-y deben retirarnos para
completar una tarea?
En febrero, Human Rights Watch emitió una advertencia titulada "Los peligros de los robots asesinos y la necesidad de una prohibición preventiva". El
informe "detallaba los diversos peligros de crear armas que pudieran pensar por sí mismas" (International Business Times).
La organización también advirtió que "eliminar el elemento humano de la guerra planteaba serios problemas morales", como la "falta de empatía", que
"exacerbaría la violencia ilegal e innecesaria" (ibid.).
"Runaway AI" es el término utilizado para definir el momento futuro en que las máquinas comienzan a desarrollarse más allá del control de los seres
humanos. ¿Pero cómo podrían las piezas, las piezas y la electrónica conseguir a este punto?
Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford, desarrolló un ejemplo hipotético en su libro Superinteligencia. Pide
al lector que imagine una máquina programada para crear tantos clips como sea posible.
Technology Review resumió: "Ahora imagina que esta máquina de alguna manera se hizo increíblemente inteligente. Dada sus metas, podría entonces
decidir crear nuevas máquinas de fabricación de clips de papel más eficientes -hasta que King Midas había convertido esencialmente todo en clips de
papel ".
"No te preocupes, podrías decir: solo podrías programarlo para hacer exactamente un millón de clips y parar. Pero ¿qué pasa si hace los clips de papel y
luego decide comprobar su trabajo? ¿Ha contado correctamente? Necesita ser más inteligente para estar seguro. La máquina superinteligente fabrica un
material de computación sin procesar que todavía no se ha inventado (lo llaman 'computronium') y lo usa para comprobar cada duda. Pero cada duda
nueva produce dudas digitales adicionales, y así sucesivamente, hasta que toda la tierra se convierte en computronium. Excepto por el millón de clips.
Muchos no ven la amenaza, lo que sugiere que podríamos desconectar a estas criaturas digitales si comenzamos a perder el control de ellas.
Sin embargo, ¿qué sucede si la IA desenfrenada provoca que las máquinas desarrollen respuestas emocionales y actúen en defensa propia? Imagínese si
una entidad más inteligente que nosotros aprovechara las mismas emociones que conducen a los seres humanos a cometer crímenes terribles: lujuria,
envidia, odio, celos y egoísmo.
¿O qué si aprendieron a aprovechar todo el conocimiento y la conectividad de la web, y comenzaron a reproducirse?
Un artículo de Pizarra resumía preocupaciones tales como el hecho de que tememos que la IA "actúe como seres humanos actúan (es decir,
violentamente, egoístamente, emocionalmente ya veces irracionalmente), sólo tendrá más capacidad".
Las acciones basadas en la emoción y la irracionalidad sugieren la sensibilidad, es decir, la capacidad de sentir, percibir o experimentar subjetivamente.
Esto permite una gama de comportamiento humano, a menudo etiquetados "naturaleza humana", incluyendo actuar violentamente y egoístamente.
Por lo tanto, para responder si debemos temer a la IA, debemos responder a otra pregunta: ¿Es posible que las computadoras ganen la naturaleza
humana?
Pensando en esta pregunta, es válido preguntar las siguientes preguntas:
¿Qué es la naturaleza humana?
¿De dónde viene la naturaleza humana?
Reconocer que la naturaleza humana es única. Observe la diferencia entre la naturaleza humana y la naturaleza de los animales. ¿Por qué el hombre
indiscutiblemente tiene un intelecto superior, poder creativo y emociones complejas? Retrospectivamente, ¿por qué los animales poseen instinto, una
habilidad innata para saber qué hacer sin ninguna instrucción o tiempo para aprender?
Estas y otras son preguntas asombrosas, ¿tienes algunas respuestas que te gustaría compartir?
Si desea ofrecer su opinión, haga un clic en el botón Mi Opinión. Gracias
Marzo 20 2017