CIENCIA

Google Fed a Language Algorithm Math Equations. Aprendió a resolver problemas nuevos.

Mucha gente piensa en las computadoras como “expertos en matemáticas” en comparación con nosotros los humanos. Si bien no podemos resolver ecuaciones tan rápido como una máquina, no debemos confiar demasiado en su precisión porque las computadoras no pueden conocer, comprender o calcular todas las posibilidades en una serie infinita de números sin importar cuánto tiempo tengan. disponible. Esta limitación del hardware computacional conduce a extrañas peculiaridades en la forma en que las computadoras realizan las matemáticas, pero el nuevo método de Google para entrenar la inteligencia artificial para comprender y resolver problemas matemáticos complejos puede resultar en un fuerte aumento en la precisión computacional futura.

Primero, echemos un vistazo a lo que hizo Google porque es un enfoque impresionante en sí mismo. Para los datos de entrenamiento, DeepMind recibió una serie de ecuaciones junto con sus soluciones, como un libro de texto de matemáticas, solo que sin ninguna explicación de cómo se pueden alcanzar esas soluciones. Luego, Google creó un sistema modular para generar de manera procedimental nuevas ecuaciones para resolver, con un nivel de dificultad controlable, e instruyó a la IA para que proporcionara respuestas en cualquier forma. Sin ninguna estructura, DeepMind tuvo que intuir cómo resolver nuevas ecuaciones basándose únicamente en ver un número limitado de ejemplos completos.

Desafiar los algoritmos de aprendizaje profundo existentes con matemáticas modulares presenta un desafío muy difícil para una IA y los modelos de redes neuronales existentes realizados con niveles de precisión relativamente similares. El modelo de mejor desempeño, conocido como Transformer, logró brindar soluciones correctas el 50 por ciento de las veces y fue diseñado con el propósito de comprender el lenguaje natural—No matemáticas. Cuando solo se juzga a Transformer por su capacidad para responder preguntas que utilizan números vistos en los datos de entrenamiento, su precisión se disparó hasta el 76 por ciento.

Si bien los mejores resultados representan una calificación reprobatoria y una C sólida, son sin embargo extremadamente impresionantes. Aparte de que este método ofrece un medio simple y eficaz de medir la aptitud de un modelo en ciertos tipos de tareas, podría conducir a una solución al mayor defecto en el dominio de las matemáticas informáticas.

Para entender ese problema, echemos un vistazo rápido a cómo las computadoras cometen errores matemáticos. por diseño. Considere el siguiente ejemplo. A pesar de dos números muy grandes, probablemente puedas resolver la siguiente ecuación en un instante cercano:

999999999999999 – 999999999999998

Si bien no debería tener problemas para determinar que el segundo número es solo un dígito más pequeño que el primero y, por lo tanto, la respuesta es 1, una calculadora (como la de Google) presentará un resultado obviamente incorrecto.

La razón de esta falla radica en el núcleo de la arquitectura computacional. Si bien entendemos las matemáticas a través del base-10 / sistema de numeración decimal, las computadoras ven las cosas de manera diferente base-2 / binario. Puedes ver la diferencia cuando miras el recta numérica real como lo conoces.

Crédito de la imagen: Wikipedia

Si cuenta números enteros en una secuencia, se encontrará hablando en voz alta la recta numérica real. Podemos crear todos los números que necesitamos a partir de los dígitos que van del 0 al 9. Las computadoras, por otro lado, solo tienen 0 y 1 para determinar los números y eso puede resultar en algunos errores inusuales como el que se muestra arriba. Todos los datos en nuestras computadoras existen como una serie de unos y ceros y eso no exime a los números. A continuación, se muestra cómo la recta numérica real se traduce a binario para las computadoras.

Para decirlo a la ligera, las cosas se vuelven un poco más complicadas.

Imagínese hacer una copia del Oxford English Dictionary cuando solo puede representar su contenido usando dos letras del alfabeto. Ordenadores lata Logre esto porque los alfabetos solo contienen un número finito de símbolos y solo requieren orden y representación. La recta numérica real, por otro lado, es una serie infinita. Ningún ser humano o computadora puede registrar y mostrar la totalidad de una serie infinita o esa serie se volvería finita. Si comprende esa imposibilidad, no es difícil imaginar por qué una computadora solo puede calcular una fracción de ese número. Después de todo, tiene que comprender todos esos números en su propio sistema binario. Donde vemos el 9, las computadoras ven el 1001. Observe cómo las computadoras ven el número 85:

Uso de computadoras sumas de múltiplos de dos para representar con éxito un segmento significativo de la recta numérica real—Sólo que no todo. El sistema de numeración decimal funciona de la misma manera, solo con 10 en lugar de 2, pero se necesitan significativamente menos dígitos de base 10 para representar un número dado en comparación con el mismo valor en binario. Todos los sistemas numéricos, por naturaleza, pueden representar números más pequeños con mayor precisión que los más grandes, pero debido a que el binario ofrece menos dígitos únicos para representar cada número, se queda sin espacio más rápido (en comparación con el sistema numérico decimal / base 10).

Esto evita que las computadoras representen todos los números posibles en la recta numérica, algo que ha experimentado en base 10 si alguna vez ha encontrado la fracción de un tercio. Usted sabe que la suma de 1/3 + 1/3 + 1/3 es igual a 1, pero si representa 1/3 como decimal, se convierte en 0.3333333 y continúa infinitamente. A diferencia de la representación fraccionaria de 1/3, la versión decimal parece sumar 0,9999999 (etc.) y nunca llegar a 1 porque el sistema de numeración decimal no puede representar la fracción de 1/3 con la precisión necesaria.

Lo mismo sucede con las computadoras, por lo que emplean el redondeo estratégico para llegar al número más cercano que lata representar. Esto da como resultado una precisión reducida pero permite una mayor variedad de cálculos. Como resultado, ecuaciones específicas pueden aprovechar las debilidades del sistema numérico binario y causar errores de redondeo que hacen que la computadora arroje un resultado incorrecto.

Por cierto, acaba de leer una simplificación excesiva importante de cómo funcionan los errores de redondeo de la computadora. Mira el video de arriba si quieres una explicación más precisa de cómo se desarrollan todas las matemáticas.

Así como la notación fraccionaria (por ejemplo, 1/3) puede ayudarnos a superar las limitaciones de la base 10, los ingenieros han proporcionado una lógica especial para ayudar a las máquinas a superar las limitaciones más problemáticas de la base 2. Sin embargo, las limitaciones de procesamiento de las CPU, el mayor número de representativos dígitos requeridos, y el alto número de decimales con infinitas representaciones en binario se combinan para presentar un problema sin una solución perfecta.

Las computadoras no son las únicas que experimentan estos errores de redondeo. Puede ver el núcleo de este dilema representado literalmente en cualquier lugar al que mire si considera cómo su proximidad a otras cosas determina el nivel de detalle que puede percibir sobre ellas. Para el ojo humano, la precisión de los detalles disminuye con la distancia. Sin embargo, esa distancia puede permitirnos ver una imagen más completa sacrificando la precisión. La misma realidad se presenta de diferentes formas en todos los sistemas numéricos conocidos.

Al crear un método de entrenamiento de inteligencia artificial que determina la capacidad de un algoritmo para abordar la computación utilizando su propia metodología abstracta, Google creó un marco para lograr un nivel mucho más alto de precisión computacional en el futuro. Con el modelo de lenguaje Transformer obteniendo el primer premio por la precisión desde el principio, a pesar de que solo logró responder bien la mitad de las preguntas, proporciona una pista que sugiere la dirección del modelo que algún día podría lograr una precisión perfecta en todo el espectro de las matemáticas que hoy en día. las computadoras resuelven con imperfecciones. Dada la puntuación mucho más alta de Transformer para resolver ecuaciones mediante interpolación (76 por ciento), una mayor precisión puede llegar a través de una combinación de cambios algorítmicos y un conjunto más significativo de datos de entrenamiento.

En cualquier caso, no tendremos una máquina calculadora perfecta que pueda entender todas las matemáticas para la próxima semana. En este momento, eso sigue siendo poco más que una quimera. Después de todo, el conjunto modular de ecuaciones ya se limita a la dificultad de nivel escolar y ningún modelo puede lograr una precisión cercana a la perfecta. Con el código que genera estas ecuaciones disponible públicamente, es posible que algún día tengamos una forma de llegar allí.

Crédito de la imagen superior: Getty Images

Publicaciones relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar