El concepto de "inteligencia artificial" es, en cierto modo, desafortunado. Originalmente surgido en el entorno científico, eventualmente penetró en la literatura fantástica, y a través de ella en la cultura pop, donde sufrió una serie de cambios, creció en una variedad de interpretaciones y al final quedó completamente desconcertado.
Es por eso que a menudo escuchamos a personas que no son especialistas sobre tales declaraciones: "La IA no existe", "La IA no puede ser creada. El malentendido de la investigación de IA también lleva fácilmente a las personas a otros extremos: por ejemplo, los sistemas modernos de IA atribuyen conciencia, libre albedrío y motivos secretos.
En ciencia, la inteligencia artificial se llama sistemas diseñados para resolver problemas intelectuales.
A su vez, una tarea intelectual es una tarea que las personas resuelven con la ayuda de su propio intelecto. Cabe señalar que en este caso los especialistas se alejan conscientemente de la definición del concepto de "inteligencia", porque antes de la aparición de los sistemas de inteligencia artificial, el único ejemplo de inteligencia era el intelecto humano, y definir el concepto de inteligencia sobre la base de un solo ejemplo, lo mismo que tratar de dibujar una línea directa a través de un solo punto. Podría haber tantas líneas como desee, lo que significa que el debate sobre el concepto de intelecto podría llevar siglos.
INTELIGENCIA ARTIFICIAL "FUERTE" Y "DÉBIL".
Los sistemas de IA se dividen en dos grandes grupos.
La Inteligencia Artificial Aplicada (también se usa el término "IA débil / aplicada / estrecha", en la tradición inglesa IA débil / aplicada / estrecha) es una IA diseñada para resolver un solo problema intelectual o un pequeño número de ellos. Esta clase incluye sistemas para jugar ajedrez, go, reconocimiento de patrones, discurso, decidir si otorgar o no un préstamo bancario, etc.
A diferencia de la IA aplicada, presentamos el concepto de inteligencia artificial universal (también "IA fuerte", en inglés – IA fuerte / Inteligencia general artificial), es decir, IA hipotética (hasta ahora), capaz de resolver cualquier problema intelectual.
A menudo, las personas, sin conocer la terminología, identifican la IA con una IA fuerte, y es por eso que surgen juicios como "La IA no existe".
Una IA fuerte todavía no existe realmente. Prácticamente todos los éxitos que hemos visto en la última década en IA son los de los sistemas de aplicaciones. Estos avances no deben subestimarse, ya que los sistemas de aplicación en algunos casos son capaces de resolver problemas intelectuales mejor que el intelecto humano universal.
Creo que has notado que el concepto de IA es bastante amplio. Digamos que el conteo oral también es una tarea intelectual, y significa que cualquier máquina de conteo se considerará un sistema de IA. ¿Y qué hay de las cuentas? ¿Abacá? El mecanismo anti-Ketter? De hecho, todo esto es formalmente, aunque primitivo, pero los sistemas de IA. Sin embargo, generalmente, al llamar a algún sistema un sistema de IA, enfatizamos la complejidad de la tarea resuelta por este sistema.
Es obvio que la división de las tareas intelectuales en tareas simples y complejas es bastante artificial, y nuestras ideas sobre la complejidad de estas o aquellas tareas están cambiando gradualmente. La máquina de contar mecánica fue un milagro de la tecnología en el siglo XVII, pero hoy en día las personas, desde la infancia que enfrentan mecanismos mucho más complejos, ya no pueden impresionar. Cuando el juego de autos en marcha o los pilotos automáticos de automóviles ya no sorprendan al público, es probable que haya personas que se arruguen porque alguien relacionará dichos sistemas con la IA.
Otro concepto erróneo es que los sistemas de inteligencia artificial tienen la capacidad de aprender por sí mismos. Por un lado, esta no es una característica obligatoria de los sistemas de IA: hay muchos sistemas sorprendentes que no pueden aprender por sí mismos, pero que, sin embargo, resuelven muchos problemas mejor que el cerebro humano. Por otro lado, algunas personas simplemente no saben que el autoaprendizaje es una propiedad que muchos sistemas de inteligencia artificial adquirieron hace más de cincuenta años.
El entrenamiento de máquinas, toda la disciplina científica, se dedica a procesos de entrenamiento de máquinas para resolver este o aquel problema.
Hay dos grandes polos de aprendizaje automático: el entrenamiento con un maestro y el entrenamiento sin un maestro.
En el entrenamiento con el maestro, la máquina ya tiene algunas decisiones condicionalmente correctas para algún conjunto de casos. El problema de la capacitación en tal caso consiste en aprender el automóvil sobre la base de los ejemplos disponibles para tomar decisiones correctas en otras situaciones desconocidas.
Otro extremo: entrenamiento sin el maestro. Es decir, el automóvil se encuentra en una situación en la que se desconocen las decisiones correctas, solo existen los datos en un tipo crudo y no detectado. Resulta que, y en tales casos, puede lograr cierto éxito. Por ejemplo, es posible enseñarle a la máquina a revelar relaciones semánticas entre palabras del lenguaje sobre la base del análisis de un conjunto muy amplio de textos.
Uno de los tipos de aprendizaje con un maestro es el aprendizaje por refuerzo. La idea es que el sistema de inteligencia artificial actúe como un agente ubicado en un entorno modelo en el que puede interactuar con otros agentes, como sus propias copias, y recibir algunos comentarios del entorno a través de una función de recompensa. Por ejemplo, un programa de ajedrez que juega consigo mismo ajustando gradualmente sus parámetros y fortaleciendo gradualmente su propio juego.
El aprendizaje reforzado es un campo bastante amplio, donde se utilizan muchos métodos interesantes, que van desde algoritmos evolutivos hasta optimización bayesiana. Los avances recientes en IA para juegos están precisamente relacionados con el refuerzo de la IA en el entrenamiento de respaldo.
Riesgos del desarrollo tecnológico: ¿se debe temer al "Día del juicio final"?
No soy un armador de IA, y en ese sentido no estoy solo. Por ejemplo, Andrew Eun, el creador del curso de aprendizaje automático de Stanford, compara el peligro de la IA con la sobrepoblación de Marte.
De hecho, en el futuro, es probable que la gente colonice Marte. También es probable que tarde o temprano se produzca una sobrepoblación en Marte, pero no está claro por qué deberíamos tratar este problema ahora. Estamos de acuerdo con Eun y Yang LeCoon, el creador de las redes neuronales, un hombre cuya investigación ha permitido que las redes neuronales modernas resuelvan problemas complejos en el campo del procesamiento de texto.
1. NO PUEDE LIMITAR EL DESARROLLO DE AI.
Los alarmistas observan los riesgos asociados con el posible impacto disruptivo de la IA, mientras ignoran los riesgos asociados con el intento de limitar o incluso detener el progreso en esta área. El poder tecnológico humano está creciendo a un ritmo extremadamente rápido, lo que resulta en lo que yo llamo el "abaratamiento del apocalipsis".
Hace 150 años, con todo deseo, la humanidad no podía causar daños irreparables ni a la biosfera ni a sí misma como especie. Para darse cuenta del escenario catastrófico hace 50 años, habría sido necesario concentrar todo el poder tecnológico de las potencias nucleares. Mañana, un pequeño puñado de fanáticos puede ser suficiente para darse cuenta de una catástrofe mundial provocada por el hombre.
Nuestro poder tecnológico está creciendo mucho más rápido que la capacidad del intelecto humano para controlarlo.
Si el intelecto humano, con sus prejuicios, agresiones, delirios y limitaciones, no es reemplazado por un sistema capaz de tomar decisiones más informadas (ya sea IA o, en mi opinión, más probable, tecnológicamente mejorado y combinado con máquinas en un solo sistema del intelecto humano), podemos enfrentar una catástrofe global.
2. LA CREACIÓN DE SUPER AI ES FUNDAMENTAMENTE IMPOSIBLE …
Existe la idea de que la IA del futuro siempre será un superintelectual, superior a los humanos, incluso más fuerte que los humanos superiores a las hormigas. En este caso, tengo miedo de decepcionar también a los optimistas tecnológicos: nuestro universo contiene una serie de limitaciones físicas fundamentales que probablemente harán imposible la creación de un superintelecto.
Por ejemplo, la velocidad de transmisión está limitada por la velocidad de la luz, mientras que la incertidumbre de Heisenberg aparece en una escala de tabla. De aquí sigue el primer límite fundamental: el límite de Bremermann, que introduce restricciones sobre la velocidad máxima de cálculo para un sistema autónomo de una masa m dada.
El otro límite está relacionado con el principio de Landauer, según el cual se emite una cantidad mínima de calor al procesar 1 bit de información. Un cálculo demasiado rápido causará un calentamiento inaceptable y fallas del sistema. De hecho, los procesadores modernos están menos de mil veces por detrás del límite de Landauer. Parece que 1000 es bastante, pero otro problema es que muchas tareas intelectuales pertenecen a la clase de complejidad EXPTIME. Esto significa que el tiempo requerido para resolverlos es una función exponencial de la dimensionalidad de la tarea. La aceleración del sistema varias veces da solo un aumento constante de "intelecto".
En general, existen razones muy serias para creer que una IA superintelectual fuerte no funcionará, aunque, por supuesto, el nivel de intelecto humano puede ser superado. ¿Qué tan peligroso es eso? Probablemente no muy peligroso.
Imagine que de repente comenzó a pensar 100 veces más rápido que otras personas. ¿Eso significa que puede persuadir fácilmente a cualquiera para que le dé su billetera?
El anuncio de los mitos de la IA se publicó originalmente en mindsync.ai en Medium, donde las personas continúan la conversación resaltando y respondiendo a esta historia.