xHUB.AI
En la era de la Inteligencia Artificial, la aplicación en cualquier escenario supone el mayor debate y más importante para el ser humano y su futuro.
En el podcast de xHUB.AI hablamos sobre inteligencia artificial y otras ciencias transversales, su aplicación a diferentes sectores y soluciones, con los mejores speakers y especialistas.
La Inteligencia Artificial cambiará el mundo y nosotros queremos contartelo.
Te lo vas a perder?
xHUB.AI
T6.E066. INSIDE X LA ESCALA NO ES SUFICIENTE PARA LA AGI
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
# TEMA
LA ESCALA NO ES SUFICIENTE PARA LA AGI
+Análisis entrevista a Francois Chollet
# PRESENTA Y DIRIGE
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai
# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.
# REDES SOCIALES
🌐 youtube : xhubai
🌐 X : xhub_ai | placidodomenech
🌐 twitch : xhub_ai | placidodomenech
🌐 instagram : / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.
# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641
# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641
# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬
Conectando. Tu cuerpo. Conectando. Tu mente. Sincronizando. Tu alma. Entrando en la simulación. Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.
SPEAKER_00Hola amigos,¿qué tal?¿Cómo
SPEAKER_01estáis?¿Cómo habéis pasado la Semana Santa? Soy Placio Domènech y hoy tenemos un nuevo InsideX porque tenía mono de Xhub que con la Semana Santa pues... Bueno, no hemos parado, hemos estado con Anticua et Nova, que ahora comentaremos varias cositas, pero nos apetecía hacer un programa de una lista interminable de programas que se estaban acumulando y hay uno o había uno que tenía ganas de verlo y voy a compartirlo, verlo con la comunidad, con vosotros, que es una entrevista que le hacen a François Choyet, ex-Google, Y que ha creado su propia compañía en DEA y habla de la AGI o cómo llegar a ella y si estamos en el camino, bueno, si la escala es suficiente o no, que parece ser que no y qué es lo que nos dice al respecto de la creación de la AGI. Veremos esa entrevista de una horita, pero bueno, antes vamos a comentar varias cosas. InsideX, la escala no es suficiente para la AGI. Sabéis que, un poco introduciendo el tema, también el interés, tuvimos un InsideX hablando de mitos y capibara. Ese filtrado que hubo en Anthropic de nuevos modelos y versiones de esos modelos que nos hacen pensar que vamos a una... bueno, una era de aceleración que ya lo sabemos, ya lo estamos viviendo, pero viendo los resultados y la disrupción en áreas como el desarrollo de software y en el estado actual o estado del arte en el que estamos, no solo en el desarrollo de software, sino en muchos aspectos y efectividad de estos modelos en arquitecturas agénticas y otros escenarios, está claro que la evolución de estos modelos nos van a llevar a ese paradigma del que tanto tiempo llevamos hablando en XHabay es verdad que cuando uno entra a las redes sociales aunque solo sea para desconectar está lleno de expertos empresas agencias de IA unas lo harán bien, otros no pero es verdad que desde mi punto de vista yo creo que esto es demasiado es decir eh Cualquiera habla de estos temas. Yo no lo sé. También podría decir, bueno, Plácido, tú también hablas, pero no lo sé. Yo creo que todo el mundo esté hablando de esto a un nivel... de teletienda porque mi pregunta también cuando veo estos vídeos muchas veces es que algunos tienen unas ediciones maravillosas¿hace falta emplear ese tono de teletienda? con los ojos casi de NPC abiertos no sé, es como esto de la inteligencia artificial bueno, ha generado tanta expectativa como oportunidad manifiesta tantísima gente subiéndose al carro yo no sé si al final esta era eh... Todo eso lo eliminará, yo espero que sí y queden compañías, queden profesionales que se dediquen realmente o se quieran dedicar realmente a eso, ver también cómo evoluciona. El circo que contemplo hay veces que simplemente no me gusta, si pertenezco, espero que no, pertenecer a él. Dicho lo cual, vamos a recordaros este programa de Mitosis Capibara y vamos a ver... Eso es por la parte de Anthropic, que tenéis el programa en el canal. Pero vamos a ver algunos vídeos. concretamente tres, dos de Greg Brockman de OpenAI y uno de Sam Allman opinando respecto a su nuevo modelo también ha habido filtraciones llamado Spud y si están próximos a la AGI o no y si el tema de la escala y el camino que siguen es el camino a seguir para el desarrollo de la AGI, si los va a llevar a la AGI y qué opina tanto Brockman como Samalman para después a partir de este contexto antropic OpenAI pues seguro que La charla que escuchemos de Choyet la evaluaremos con una cierta perspectiva y mucho mejor. Vamos a ver los vídeos. Primero los de Brockman. Primero los de Brockman. Vamos a ver este.
UNKNOWNEste.
SPEAKER_03Creo que donde estamos cuando pensamos en el rol de esta tecnología es, de nuevo, que ha habido este debate sobre a qué distancia irán los modelos de texto.¿A qué distancia puede ir la inteligencia de texto?¿Puedes tener una concepción real de cómo funciona el mundo? Y creo que hemos definitivamente respondido a esa pregunta de que va a ir a AGI. Como vemos line of sight y que es a este punto, tenemos line of sight, estos modelos mucho mejores que vienen este año y la Bueno, es el primer vídeo donde parece ser
SPEAKER_01que justifican la baja de hora de la generación de vídeo para obtener mayor capacidad de cómputo y entienden que el camino de escala de ir a más capacidad de cómputo y aplicarlo a los nuevos modelos es decir más más y más les entienden que los los lleva a la allí y a la emergencia de nuevas capacidades entre ellos pues la capacidad de solventar problemas no solventados anteriormente, por ejemplo, en el campo de la ciencia, de hecho concretamente en el campo de la física. Es curioso que esa es la postura de OpenAI, de Brockman, que vamos a ver qué nos dice Choyeta al respecto. Demis Haseb, la mayoría de la industria entiende que se necesita algo más, pero aquí Brockman defiende que la evolución de estos modelos a partir del factor de escala y algunas otras cosas entiendo pero principalmente a factor de escala capacidad de cómputo los lleva a emerger esas capacidades que todo el mundo vincularía a una inteligencia artificial general obviamente pues la resolución de problemas no resueltos de la física o de la ciencia o de otro tipo de contextos vamos a ver otro vídeo de Brockman a qué nivel están
SPEAKER_03o cuán cerca están de la ciudad. Creo que diría que estoy alrededor del 70-80%. Creo que estamos muy cerca. Creo que es extremadamente claro que tendremos AGI en los próximos años, en un modo que todavía será agudo, pero que el piso de tareas En la misma dirección,¿no? Casi al 80%
SPEAKER_01y que estamos muy cerca. Yo creo que... Y en esto veremos varias declaraciones, también las ha hecho Elon Musk, también las ha hecho Sam Alman, Darío Modey, vamos a ver qué dice Sam Alman al respecto. Entonces, bueno, si estamos en un punto disruptivo de aceleración, pues imaginaros lo que está por venir. Si es que al final la gente se cree que lo que vive es el estado del
SPEAKER_11arte,
SPEAKER_02pero... Bueno.
SPEAKER_01Pues lo mismo,¿no? Es decir, depende de la definición, pues para Sam Allman ya estaríamos incluso en la H, pero que vamos a ver muy pronto este desarrollo, tanto de H como de superinteligencia. Este programa, si no pasa nada, no lo sé, lo podemos hacer seguramente el miércoles. Y a lo mejor en vez de un I6X, lo hacemos Xdebate ahí. que es como, bueno, todas las novedades alrededor de Anthropic, incluido el filtrado del código fuente contra OpenAI, en lo que se supone que es casi una guerra declarada respecto a la AGI. No sé si hacer un programa exclusivamente con el filtrado del código fuente de CloudCode, pero bueno, lo pensaré, pero sí que quiero hacer un programa de cómo estas dos compañías van a un enfrentamiento comercial, estratégico, tecnológico y en definitiva del desarrollo de una AGI que yo creo que vamos a ver este año fijaos que estamos en abril queda muchísimo tiempo por delante pero 2026, 2027 yo creo que vamos a ver cosas muy muy muy importantes en una carrera que sé que para muchos es innecesaria que es el desarrollo de la AGI pero por ello creo que es lo que da sentido a todo lo que da sentido a todo no es sólo que podamos automatizar generar inteligencia a un cierto nivel en creatividad lo que estamos haciendo es el hito de replicar aumentar e ir más allá de la capacidad o la inteligencia humana obviamente hay un debate sobre eso, pero vamos, quien se crea que esto es una tecnología o una herramienta y no entienda el sentido de todo esto, pues bueno, me parece muy bien, pero la película, ni la historia de la humanidad ni el desarrollo de la inteligencia artificial va de eso. Va de justamente hacer preguntas y obtener nuevas respuestas y volver o formular, hacer nuevas preguntas a partir de lo que Tendremos entre manos ese fuego prometeico, que en la última entrevista, que por cierto no la he puesto, pero bueno, os la recomiendo, me hicieron una entrevista en Odiseia, me la hizo Frank Scandell. que creo que no me equivoco con el nombre. Bueno, Frank. El apellido creo que es Scandell. Y nada, estuvo muy bien. La tenéis en el canal Dodiseia. Y espero que os guste. Y ahí hablamos del tema del fuego prometeico. Yo desde un punto de vista positivo totalmente y entroncado en el propósito de la humanidad. Evolución y búsqueda de verdad. Si eso nos convierte en jugando, entre comillas, a ser dioses, pues para mí bienvenido sea. No No sé por qué tiene que ser un problema. Habiendo introducido brevemente lo que es este tema, vamos a decir dos cositas y vemos la entrevista a Choyet y luego al final, no sé si al final o ir comentando para que no salga tan pesado a la espera y voy comentando fragmentos de la entrevista. Yo creo que mejor así, si no se hace tan pesado y para los que no domináis mucho el inglés, pues bueno, se van intercalando trozos en inglés con comentarios míos. y siempre yo creo que será más ameno para todos pero bueno lo decidimos sobre la marcha estos son programas en directo y este programa pertenece a la comunidad de inteligencia artificial y ciencias transversales de habla hispana X Hub AI sexta temporada y si queréis entrar al Discord de X Hub AI simplemente me tenéis que enviar un mensaje directo y os pasamos un enlace y accedéis a la comunidad de X Hub AI en Discord donde hay dentro en ese servidor tenéis un montón de recursos sobre inteligencia artificial y ciencias transversales noticias, actualidad, papers cursos, formación debates bueno, de todo y todo gratuito así que Vamos, un correo, un link y ya estáis dentro y a disfrutar aún más de la era de la inteligencia artificial. Y si os gusta todo lo que veis, lo que conocéis de XHabay, de lo que hacemos, de lo que hago, pues poned me gusta, compartid, comentad, suscribíos, principalmente, que menos, con un me gusta que siempre es de agradecer y a mí lo que más me gusta son los comentarios. Por cierto, hay mucho comentario de bot. Yo creo que en las redes sociales y sobre todo en YouTube y algunas redes, mucho comentario de voz porque cuando les contestas, no te contestan o te contestan cosas que dices, bueno, casi son incoherentes o inconsistentes y dices, o te sueltan una parrafada que dices, esto no lo ha hecho un humano, vamos, solo por la pereza que da escribirlo, vamos, no me lo creo, alguno habrá por ahí suelto, pero bueno, vamos. Y recomendaros tres programas que hemos hecho de Antiqua et Nova, ese texto de la Iglesia Católica, analizando esa nota, analizando la relación entre la inteligencia artificial y la inteligencia humana. Tres episodios editados, no en directo, con vídeos, música, edición, cuidada, donde Alma, la inteligencia artificial de X-Hab ahí, junto conmigo, hemos analizado puesto en contexto este texto, esta nota. Vamos a hacer una serie analizando Anticuadnova, luego analizaremos que fue un texto del año 2025, todavía con el Papa Francisco en vida, y analizaremos después de esta serie, que yo creo que va a ser larga porque vamos a un ritmo muy lento, pero bueno, iremos publicando dos o tres episodios a la semana hasta que se termine, y después de ese analizaremos un texto de la Iglesia Católica también. también sobre el transhumanismo, titulado Quo Vadis. Vamos, no lo he leído, no me da la vida, la verdad es que es una auténtica locura. Pero vamos, os recomiendo la serie Anticua et Nova, que ha tenido mucho éxito, ya lleva 4.000 reproducciones, con algunas portadas como muy llamativas,...esta sobre......la creación divina......no me acuerdo......lo comento en este......y esta portada que me gusta muchísimo......este es del episodio 3......pues una recreación del Jesucristo......como robot......con la Virgen María......la piedad......recreada o transformada......cambiada......integrando lo moderno......o lo nuevo y lo antiguo......y yo creo que... han gustado mucho, por lo que me habéis dicho, y los episodios de Antigua Nova, estos tres, pues están teniendo también muy buena audiencia, espero que los escuchéis, que me deis vuestra opinión, son programas difíciles, complicados, Iglesia Católica, con la Iglesia hemos topado, pero sabéis que en XHab ahí, y personalmente, como ser libre, pues entro a opinar, a analizar este texto,¿de acuerdo? Tres episodios, y ya os digo, que continuará y esta semana como mínimo al menos un episodio o dos por semana tendréis y vamos a ver un segundo un segundo que me comentan por aquí un segundín vale Vale, vamos a por la entrevista. Un segundo. Bueno, si estáis por el chat y queréis, bueno, sabéis que los 6x, todo lo que son interacciones en el chat, vamos, se leen todas. Y vamos a ver, vale, vamos a... Vamos a leer.
SPEAKER_06Bueno, vamos a ver
SPEAKER_01si tiene subtítulos. En inglés sí. Vamos a ver si deja en español.
SPEAKER_06Creo que la investigación AI tendremos
SPEAKER_01que
SPEAKER_06entrenar hacia no solo eficiencia, sino, en realidad, optimidad a lo largo del tiempo. Y por este motivo, la AI futura, en un par de décadas, no tendrá este hueso en lugar de un modelo de razonamiento,
SPEAKER_01en lugar de una base de datos. Lo
SPEAKER_06siento por chicos, pero nada, los subtítulos en inglés. Estamos probablemente mirando a AGI 2030, alrededor del tiempo en que se va a lanzar, tal vez, ARC 6 o ARC 7. No vas a detener el progreso de la AI. Creo que es demasiado tarde. Bueno, iré comentando por encima.
SPEAKER_04Hoy tenemos la suerte de estar con François Chollet, fundador de ARK Prize, una competición global para resolver el benchmark de ARK AGI. Su proyecto más reciente es ENDEA, un laboratorio que explora un nuevo paradigma en investigación de AI de frontera. François es uno de los mejores en el mundo para ayudarnos a entender el momento de la AI actual y dónde va todo esto. François, muchas gracias por estar con nosotros hoy y felicitaciones en el lanzamiento
SPEAKER_06de ARK AGI v3. Muchas gracias por invitarme. Estoy muy emocionado de estar aquí. es un momento
SPEAKER_05excelente para hablar juntos. Entonces, Francois, cuéntanos un poco sobre INDIA.
SPEAKER_06¿Qué es exactamente eso y qué estáis tratando de lograr? Bien, INDIA es este nuevo laboratorio de investigación de AGI y estamos tratando algunas ideas muy diferentes. Nuestro objetivo es, básicamente, construir este nuevo campo de aprendizaje
SPEAKER_04de máquinas que será mucho más cercano al óptimo, a diferencia del aprendizaje profundo. Todos nosotros, en este momento, estamos tomados por lo que está pasando con el código. Tengo un momento viral en este momento en el que llegué a 40.000 estrellas esta mañana en G-Stack. Así que es como, oh, esto es un proyecto de open source que ahora es uno de los más grandes y tengo más de 100 PRs de contribuyentes para lidiar con. Pienso que eres, ya sabes, una de las mejores personas para hablar de esto, porque en realidad estás literalmente llegando a algo que es un camino totalmente diferente.
SPEAKER_06Eso es cierto, eso es cierto. Lo que estamos haciendo en India es hacer investigación de sintesis de programas. Y cuando hablo de sintesis de programas, a menudo la gente me pregunta si estoy haciendo algo como CodeGen, si estoy creando una alternativa para los agentes de código. Y en realidad no es así lo que estamos haciendo. Estamos trabajando en un nivel mucho, mucho más bajo que eso. Lo que estamos haciendo es que estamos tratando de construir un nuevo campo de aprendizaje de máquinas, una alternativa para el aprendizaje profundo en sí mismo, en vez de agentes de código. Los agentes de código son como este nivel muy, muy alto, una pieza de y en realidad estamos tratando de reconstruir todo el stack a través de diferentes fundaciones. Estamos construyendo un nuevo substrato de aprendizaje que es muy diferente de, ya sabes, aprendizaje paramétrico, aprendizaje profundo. Si volvamos al problema del aprendizaje de máquinas, tenemos algunos datos de entrada, algunos datos de objetivo, y estamos tratando de encontrar una función que mapeará los ingresos a los objetivos y que, con suerte, generalizará los nuevos ingresos. Y si estás haciendo deep learning, lo que estás haciendo es que tienes esta curva paramétrica que sirve como tu función, como tu modelo, y estás tratando de ajustar los parámetros de la curva hacia la descensión del cráter. Y básicamente esto es lo que estamos haciendo, excepto que estamos reemplazando la curva paramétrica con un modelo simbólico que es destinado a ser lo más pequeño posible. Es como lo más sencillo posible model to explain the data to model what's going on and of course if you're doing that you cannot apply grand descent anymore so we are building something that we call a symbolic descent which is like the symbolic space equivalent of grand descent the idea is to build this new machine learning engine that's giving you a extremely concise modelos simbólicos de los datos que estás incluyendo, y luego lo vamos a hacer escalar. Así que todo lo que estás haciendo con el aprendizaje de máquinas hoy, con las curvas paramétricas, deberíamos ser capaces de hacerlo con modelos simbólicos en el futuro de una manera que sea mucho, mucho más cerca de la optimidad. Mucho más cerca de la optimidad en el sentido de que vas a necesitar mucho menos datos para obtener los modelos. Los modelos van a funcionar mucho más eficazmente en la hora de inferencia porque van a ser tan pequeños. Y porque son tan pequeños, también se generalizarán mucho mejor y se compondrán mucho mejor. Sabes, el principio de longitud de descripción mínima, que el modelo de datos que es más probable de generalizar es el más corto. Y creo que no puedes encontrar un modelo como este si estás haciendo aprendizaje paramétrico. Tienes que
SPEAKER_10aquí
SPEAKER_01vamos a comentar para que no llegue al final e interesante no lo que dice el frasco françois chouette es una compañía de endea un nuevo laboratorio de allí donde va más allá del learning donde hablan de síntesis de programas, ya lo escuchamos en algún programa previo que hicimos de François Chollet y o de Arkadji, donde no es una generación de código tradicional a través de agentes o código a un nivel alto. Estamos hablando, o habla Chollet, de otro camino, de una rama nueva del Machine Learning, más allá del Deep Learning, aunque... parecido porque al final lo optimizan ese gradiente ese descenso pero lo hacen en un modelo simbólico que es capaz de explicar los datos lo llaman el symbolic descent y esos modelos simbólicos son muy óptimos porque son modelos muy pequeños y está claro que la mejor generalización es aquella que sea la más sencilla o corta o comprimida y aquí traemos el concepto que también se maneja de la compresión que la compresión es inteligencia o aquello más corto más reducido es lo más inteligente tiene una cierta relación no significa que exclusivamente sea el tamaño lo que condiciona la inteligencia pero ahí hay un factor y es muy interesante que hayan introducido una analogía respecto a lo que se está haciendo pero introduciendo el concepto de modelo simbólico¿no? me parece muy muy interesante y con el enfoque del aprendizaje y de la generalización y se considere una nueva rama dentro de lo que es el Machine Learning, aquí cabría preguntarse si esto tiene una cierta bioinspiración o no entendemos que sí porque parten de algunos conceptos de Deep Learning como ese decente de gradiente y volveremos en que consiste,
SPEAKER_10vamos a ver si nos dan más detalles.¿Puedes ayudar a hacer el caso de por qué crees que es la mejor
SPEAKER_06manera de explorar métodos alternativos en lugar de seguir poniendo más dinero en el método actual? Quiero decir, todo el mundo está construyendo el stack de LLM en estos días, lo que hace sentido porque, ya sabes, los retos están ahí, como si estuvieran funcionando. Así que parecería muy sensible para todo el mundo simplemente estar haciendo lo que parece ser el camino más productivo actualmente. Pero Artex, en realidad, es para tener a todos trabajando en la misma cosa. Personalmente, no creo que el aprendizaje de máquinas o AI en 50 años siga siendo construido en esta tabla. Creo que esta es una tabla que es muy buena, tal vez incluso nos lleve a la AI, pero no es tan eficiente como debería ser. Creo que es inevitable que el mundo de la AI tendrá una tendencia en el tiempo hacia la optimidad. Así que estoy tratando de arrastrar directamente hacia la optimidad, para construir las fundaciones de Artemor AI hoy. Pero en general, nuestra visión es muy ambiciosa y no estoy diciendo que vamos a ser exitosos, como si tuvieramos un 10% o un 15% de posibilidades de éxito, pero eso es suficiente para que sea valioso intentar. Y creo que, en general, entre los escuchadores, si tienen una gran idea, y tiene muchas posibilidades de éxito, pero si funciona, va a ser grande y nadie más va a estar trabajando en ello. No es algo popular, no es algo que si no lo haces nadie más lo hará. Y básicamente es nuestra situación. Si estás en esta situación, entonces deberías
SPEAKER_10probar tu oportunidad, deberías
SPEAKER_06ir y trabajar en ello. Quiero decir, es casi como la declaración de misión de Y Combinator, lo que acabas de decir. Sí. Sí, la razón por la que es importante es que, de nuevo, si no lo hacemos, nadie más lo hará,¿verdad? Así que es más difícil de intentar. Incluso si no lo
SPEAKER_05conseguimos, es más difícil de intentar.¿Tiene éxito...? muy específicamente de los agentes de código, creo, construidos sobre el stack de LLM.¿Les ha sorprendido su éxito en particular, por ejemplo, en los últimos seis
SPEAKER_06meses o así? Sí, absolutamente. Creo que me ha sorprendido a muchas personas. Definitivamente me sorprendió. Si miras por qué todo está empezando a funcionar tan bien con los agentes de código, es realmente porque el código te ofrece un señal de recompensa verifiable. Y creo que ahora estamos en una situación en la que cualquier problema donde las soluciones que propones puedan ser formalmente verificadas y que puedas Aquí en
SPEAKER_01Hablan de, bueno, si es interesante a nivel de negocio, a nivel de dinero, a nivel de inversión, el introducirse en estos nuevos métodos de abordar la inteligencia artificial general, ya que todos están en los modelos LLM, multimodales. Dice, y vuelve a decir... que los modelos EDM no son eficientes, que funciona muy bien, que es lo que tenemos ahora, pero él va hacia la optimality, hacia la optimización, hacia algo que realmente sea mucho más óptimo, y le preguntan sobre si le ha sorprendido los agentes generadores de código en estos últimos seis meses su efectividad, y dice que sí, y que evidentemente han funcionado también por la calidad de la señal de recompensa que es verificable en el escenario de lo hemos dicho muchas veces, ya lo comentaba de mis hasabis esto también en en Alpha Evolution creo que se llamaba tenían el mismo problema es decir, el código y matemáticas es verificable nos permite verificar y entonces se es fácilmente aplicable a estos escenarios, pero bueno, hay otros más no tan deterministas y verificables en el que parece ser que también van a conseguir cosas, pero van a tardar más,¿no? Pero bueno, el éxito del código es de calidad.
SPEAKER_08un par de grados afuera, donde hay áreas que no son naturalmente, formalmente verificadas. Y tienes que llegar con, de nuevo, con algún tipo de función para llegar con esa recompensa que la hace verificable. Con cosas muy curiosas como, digamos, el idioma inglés y componer el perfecto ensayo.¿Cómo lo haces formalmente
SPEAKER_06verificable? Sí, sí. Absolutely. I mean, writing essays is the typical example of a domain that's not verifiable. And so what you're going to see is that progress of reasoning models and based LLMs on this type of domain is going to be very slow. Because the stack we're using, like the LLM stack, is very, very reliant on its trained data. It's basically just operationalizing the trained data. And for writing essays, the trained data is coming from human experts, like annotating Y eso es caro. Así que vas a ver este progreso muy, muy lento. Tal vez, tal vez se va a estallar. Pero para cualquier domenio muy fiable, como Techcode, por ejemplo, lo que fue el gran descanso fue cuando la gente comenzó a crear este ambiente de entrenamiento basado en el código para entrenamiento post. donde la señal de recompensa, la señal de verificación, es ofrecida por cosas como test de unidades, y así sucesivamente. Eso significa que el modelo no estaba solo trabajando con anotaciones de human pride, sino que estaba intentando sus propias cosas, verificando la respuesta. y generar mucho, mucho más detalles en el proceso, una cobertura mucho más densa del espacio del problema. Y no solo cobertura en términos de si la respuesta es correcta o equivocada, sino también empezar a construir modelos de tracos de ejecución,¿verdad? Para que los modelos puedan empezar a incorporar un modelo de ejecución. Muy bien la manera en que los programadores humanos, cuando miran el código, están ejecutando el código en sus mentes. Ellos mantienen en cuenta las variables de valor y así sucesivamente. Eso es también lo que los modelos Y es posible porque estás trabajando con un entorno muy formal y completamente verificable. No puedes hacer eso con ASSESS, no puedes hacer eso con DAW o muchos otros problemas.
SPEAKER_08Creo que me gusta mucho cómo definís la inteligencia y cómo la medís, lo que nos lleva a la cuestión de compartir la historia de ArcGIS.
SPEAKER_06Sí. Mi definición de inteligencia general. Mucha gente en la industria hoy en día dice que AGI es un sistema que puede automatizar las tareas económicas más valiosas. Y para mí esa definición se trata de automatización. No se trata de inteligencia, no se trata de inteligencia general. Así que mi definición es que AGI es básicamente un sistema que puede abordar cualquier nuevo problema, cualquier nueva tarea, cualquier nuevo domenio y hacer sentido de ello, como modelarlo, convertirse en competente en ello. con el mismo nivel de eficiencia que un ser humano. Es decir, va a necesitar básicamente el mismo nivel de datos y computadoras de entrenamiento que un ser humano, lo cual es muy poco. Los humanos son realmente eficientes en datos. Así que la inteligencia general es la eficiencia de adquisición de habilidades de nivel humano en el mismo
SPEAKER_10escopo de tareas que los humanos podrían aprender a hacer.¿Crees que es posible que alcanzemos la primera definición de AGI, de trabajo económico
SPEAKER_06antes de lograr tu definición? Absolutamente. Creo que esa es la trayectoria que estamos en ahora mismo. Y creo que es ya verdad que, en principio, la tecnología actual puede automatizar a nivel humano o más allá de cualquier domenio donde tengas recompensas verificables,¿verdad? Y el código siendo el primero. Y creo que si vas a AGI, si vas a nivel humano, sabes, eficiencia de aprendizaje sobre tareas arbitrarias, probablemente va a necesitar una tecnología diferente, una¿Crees
SPEAKER_10que el LLM puede ser rotulado para tener la misma eficiencia de muestra como los humanos?¿O crees que es fundamentalmente imposible y necesitamos un nuevo enfoque? Y eso es lo
SPEAKER_06que esperas resolver. Con el computador, todo empieza a parecer como si fuera todo. El computador es un gran equilibrador. Cada enfoque empieza a parecer igual. Y creo que es posible, en principio, construir algo que se vea mucho como un AGI sobre el stack de LLM. Pero no va a ser LLM. LLMs per se. Va a ser este nuevo layer, quizás va a ser incluso un par de layers más allá, no solo un layer más allá, pero un par de layers más allá. Pero puedes construirlo en LLMs porque LLMs son un tipo de computador,¿verdad? Exactamente. Yo creo, por lo tanto, que esto sería la cosa equivocada de hacer porque sería muy ineficiente. Creo que la investigación AI tendrá que entrenarse no solo en la eficiencia, sino en la optimidad a lo largo del tiempo. Y por este motivo, la AI futura, en algunas décadas, no va a ser este hueso en base a un modelo de resonancia,
SPEAKER_10en base a un alarma basal, va a ser mucho, mucho más bajo que eso. A la pregunta de Diana,¿quieres hablar de cómo diseñaste
SPEAKER_06ArcAGI y por qué es un buen barómetro de eso? He estado haciendo Deep Learning por mucho tiempo. Inicialmente, mi método, mi mindset, era que Deep Learning iba a poder hacer todo. Eras el creador de Keras antes de que todos los otros frameworks se volvieran muy
SPEAKER_08populares.
SPEAKER_06Eso es cierto. Estaba trabajando en el modelo de Deep Learning. para el procesamiento de lenguaje natural, de hecho, en 2014. Y desde ese trabajo, de hecho, comencé a desarrollar esta biblioteca de open source, que publicé, de hecho, exactamente 11 años atrás, en marzo de 2015. Así que fue Keras. Y luego se volvió popular y terminé haciendo menos de la investigación que comencé Keras para y más para trabajar en el framework en sí mismo, solo porque es un muy buen marco productivo. Y entonces, mi estrategia en ese tiempo, en 2015 o 2016, fue que el aprendizaje profundo era extremadamente general, que podías hacer todo con el aprendizaje profundo, que no necesitabas nada más, que era completar todo. Así que mi estrategia era básicamente que el aprendizaje profundo era programación diferenciable. Así que cualquier cosa que hicieras con el software, en principio, podrías entrenar un modelo de aprendizaje profundo en los puntos y entornos correctos para hacer la misma cosa. Y en 2016, estaba haciendo investigación en Google Brain, tratando de entrenar modelos de planificación para ayudar con problemas de pensamiento y, en particular, problemas de lógica de primera idea, prueba de teoría, y así sucesivamente. Y comencé a encontrar que realmente no podías obtener un descenso de Kryon para encodar algoritmos de estilo de cruzamiento. No era porque los modelos no pudieran representar estos algoritmos, sino porque Crayon Descent no los podía encontrar. El problema era que no se trataba de que Deep Learning no fuera un trueno completo o algo así. Ese no era el problema. El problema era Crayon Descent. Crayon Descent no encontraría programas generalizables. En lugar de eso, tendría que hacer overfit pattern matching sobre secuencias de Porque creo que la gente podría argumentar que eso es lo que está sucediendo. Es útil, pero... Es lo que está sucediendo hoy en día en
SPEAKER_08una
SPEAKER_06versión un poco más elevada. Con un montón de datos, así que no se siente como algo exagerado porque los datos tienen más distribución. Sí, con mucho más
SPEAKER_04datos y también creo que los modelos de hoy son mucho más compresivos de los datos, lo que es lo que los genera mejor. Todos los modelos son malos, pero algunos modelos son útiles. Y entonces creo que lo que estoy escuchando es que tu método puede encontrar el modelo.
SPEAKER_06Eso es correcto. Eso es de donde surgió la idea. Y yo estaba como, sabes, en ese momento, en 2016, 2017, yo estaba como, OK, vamos a necesitar una base para capturar estas ideas. Vamos a necesitar una base de sintesis de programas. Y mi modelo mental para eso fue ImageNet. Yo estaba como, oh, voy a hacer la ImageNet de la razonamiento. Así que comencé a brainstormar algunas ideas alrededor de los años 20, 2017. Exploré muchas cosas diferentes. Traté de trabajar con, en particular, Celular Automata, una configuración en la que muestras un modelo de los entornos de Celular Automata y que debe recrear el programa que los generó, ese tipo de cosas. Y, eventualmente, me quedé en el formato de ArcGIS, alrededor del 2018. Estaba haciendo esto de lado, era un proyecto de lado, como si mi principal proyecto fuera desarrollar Keras en Google. No estaba moviéndome muy rápido en eso. Así que, en el verano de 2018, escribí el editor de tareas ARC, y luego empecé a hacer muchas tareas a mano. Y un año después, hice 1.000 tareas. Así que escribí el artículo que explicaba qué era esto, cuál era la gran idea, como la inteligencia como eficiencia de adquisición de habilidades. Y publicé todo eso en 2019. En paralelo, GPT-3 2020 estaba saliendo y comenzando a mostrar señales hasta
SPEAKER_08el momento de chat GPT alrededor del final del año 2022. y la industria se fue con eso y este fue uno de los centros que estaba realmente actuando realmente mal y era muy oscuro, no creo
SPEAKER_06que mucha gente lo sabía. Fue principalmente comunidades de investigación nichas que tal vez leyeron tu artículo. Sí, la gente que trabajaba en programas de análisis sabía de ello, pero mucha gente que trabajaba en Deep Learning, en la creación de LLMs, se quedó muy atentos a ello y parte de la razón es porque las LLMs no funcionaban bien o en absoluto en la tabla. Para que la tabla capture la atención de la comunidad de investigación, necesita empezar a trabajar un poco. Si es demasiado difícil, la gente va a
SPEAKER_04disminuirlo. Estás justo antes de tu tiempo, claramente, porque no estamos en Arc AGI 1 más, y luego
SPEAKER_082 está alcanzando la saturación, y luego 3 está fuera ahora. Sí. Y creo que la cosa genial de Arc AGI es que ha sido un muy buen barómetro para la industria de los grandes cambios que ocurrieron, porque V1 no estaba funcionando por mucho tiempo, hasta 2025, cuando los modelos de
SPEAKER_06razonamiento salieron,¿verdad? Sí, absolutamente. Si miras... la performance de ProntoTII en ARCv1 primero y luego v2. Así que las luces basal fueron extremadamente bajas en v1, como sub 10%, básicamente. Y, quiero decir, eso fue verdad con el original ARC GPT-3, que estaba bajando cero. Pero eso es incluso verdad con las luces basal más recientes de hoy, ya sabes, como de margen. Sin razón. Sin razón. Sin razón, sí. Así que los modelos básicos. Así que la performance de las luces basal en v1 quedó muy, muy baja, aunque en el momento En ese momento, teníamos que escalar estos modelos por 50.000x. Así que estaba diciendo que más escala, escalar solo pre-entrenamiento, no iba a romper el marco. Esto no era suficiente para demostrar que el modelo tenía inteligencia fluida. modelos que comenzaron a funcionar bien en Arc 1 fueron los primeros modelos de razonamiento. En particular, los modelos de OpenAI 01 y 03, que, por cierto, fueron demostrados por OpenAI en Arc, porque era el único benchmark de razonamiento insaturado que realmente mostró que este modelo era diferente, que tenía nuevas capacidades que no habíamos visto antes. Y así, con los modelos de razonamiento, empiezas a ver este cambio de función de paso en Arc 1. Así que Arc 1 fue que señalaba que en ese momento algo estaba sucediendo.
SPEAKER_08Algo grande.
SPEAKER_06Sí, algo grande, como que nuevas capacidades estaban surgiendo. Como que el pensamiento era nuevo y diferente. Y en realidad no era obvio en ese momento. No sé si te acuerdas cuando la previsión de O3 fue anunciada por
SPEAKER_08OpenAI.
SPEAKER_06Eso fue a finales de 2024, en realidad. Sí, en diciembre de 2024. Y claro, había un gran progreso en la función de paso en ARK. pero era muy caro y no tenía un buen mercado de productos. Pero si miras los resultados de ARC, sabías que esto era muy importante. Y luego lanzamos ARC2, que era el mismo formato, pero más difícil, con más composición en el nivel de las cadenas de razonamiento. Y lo que pasó fue que los modelos de razonamiento más antiguos empezaron muy bajos en ARC2. Y luego, al mismo tiempo, cuando los agentes de código empezaron a funcionar. Hace un año. Sí. Muy recientemente, hace unos meses, viste una saturación de R2 muy rápida. Y, de nuevo, R2 señaló que sí, había este nuevo tipo de posibilidades emergentes. Así que creo que el Benchmark hizo un buen trabajo en capturar el avance de los modelos de razonamiento y luego el avance de los agentes de código. Este nuevo modelo en el que si tienes recompensas verificables, básicamente puedes para automatizar el domenio, que, por cierto,
SPEAKER_04es a través de ARC. ARC proporciona una recompensa verificable. Yo creo que para V2,¿qué causó esto? Uno, era claramente la razonabilidad. Dos, un benchmark no importa cómo lo soluciones. Yo creo que está enloquecido en lo que
SPEAKER_06dijiste, como si las personas estuvieran usando Codegen para solucionarlo. Eso es correcto. No necesariamente Codegen per se, pero los labios de Frontier han estado objetando a ARC V2. Y el progreso que viste en ARC V2 es, en realidad, el resultado de este objetivo de gran escala. Entonces, lo que puedes hacer para salvar RG2 es, te pones tu modelo de razonamiento, para hacer más tareas usando el benchmark. Y luego intentas solucionarlas usando, por ejemplo, la inducción de programas, aún usando tu modelo de razonamiento. Luego verificas la solución. De nuevo, es muy fiable, así que puedes confiar en la respuesta. Y luego repartes el modelo en las cadenas de razonamiento exitosas. Y luego sigues preparando, generas nuevas tareas, las solucionas, verificas la solución, repartes el modelo en las cadenas de razonamiento. Y puedes seguir haciendo esto millones de veces.¿Verdad? Como que solo necesitas gastar más dinero. Este es el loop de RL que está sucediendo. Exactamente. Y el nuevo paradigma en la IA es básicamente que cualquier domenio donde esto es verdad, donde tienes la capacidad de generar estos señales de verificación verdaderos, puedes ejecutar este tipo de loop,¿verdad? Si puedes ejecutar este tipo de loop, puedes minar, puedes minar efectivamente todo el espacio y obtener una performance extremadamente alta. Este es básicamente el proceso por el que Arctur fue saturado. Entonces, lo que dice es que no es No tanto que los modelos tengan una inteligencia fluida más alta que los modelos de los primeros 3D, es solo que tienes este nuevo paradigma de post-training. Y esto es exactamente lo que ha llevado
SPEAKER_04a la codificación de agentes. Así que importa, es valioso, es útil. No es que los modelos sean más inteligentes, sino que de repente son más útiles. Es posible ser más útil en determinadas áreas sin ser más inteligente. Claro, porque eso significa buenas cosas para mí. No me siento más inteligente ahora mismo, como a 45 años, pero puedo aprender a hacer cosas y eso es lo que está sucediendo con los
SPEAKER_06modelos a lo largo del tiempo. Sí, absolutamente. Cuando se trata de competencia, siempre hay una distinción entre inteligencia y conocimiento. Si tienes más conocimiento, si tienes mejor entrenamiento, necesitas menos inteligencia para ser competente. Y eso es exactamente lo que sucedió con el aumento de los agentes de código. Los modelos no tienen una inteligencia fluida más alta, no tienen una IQ más alta, por así decirlo. Es solo que están mucho mejor entrenados. Y están mucho mejor entrenados en dos formas. No están solo tratando de completar el código. Están entrenados a través de prueba y error en este área. posturing environments with true reward signals and also they are trained to embed this model of code execution where they learn to keep track of the value of variables over an execution cycle and that's what's leading to this extremely strong product market of urgent decoding today and it's completely changing software
SPEAKER_08engineering. This happened not too long ago, the saturation, we actually had the founders of Poetic that came and spoke sobre el enfoque, que realmente suena como si esta nueva forma de obtener LLAMs para ejecutar es construir esta cadena de agentes,¿verdad? Y la cadena es básicamente estructurar un domenio de problemas en algo que pueda ser formalmente verificado. Y hicieron eso básicamente para ARK v2, que cuando lo lanzaron, estaban en la cima del benchmark. Pero luego la cosa locura es que en realidad trabajé con la empresa en el 26 de invierno, hace poco, llamado Confluence Lab, que en realidad terminó saturando el V2 resultó en 97% y creo que su costo de tareas fue mucho más eficiente también. Y el enfoque que básicamente tomaron es similar a este. Creo que construyeron las puertas encima de ello para que las LLMs pudieran ir y construir diferentes tareas y programarlas a través de ello. Sí. Que entonces, para mí, estaba como, wow,¿es este batch? Durante el batch, solo trabajaron en él durante un par de meses y pudieron saturar el espectro que había por
SPEAKER_06mucho tiempo, es como si algo especial estuviera sucediendo. Sí, sí, hay mucho progreso en este momento que está dirigido a las cargas customizadas alrededor de las tareas. Y las cargas son básicamente una forma para que el programador humano inpute en el modelo estrategias de solución de nivel más alto, básicamente. Quiero decir, para mí, el hecho de que necesites a los humanos para ingeniar estas cargas también es un signo de que estamos cerca de AGI hoy, porque si hubiéramos AGI, ya sabes, AGI haría su propia carga, no necesitaría Y es muy efectivo. No creo que nos lleven más cerca de HCI en ningún sentido, pero es una investigación muy valiosa porque puede llevar a la automación
SPEAKER_04de tareas.
SPEAKER_01Bueno, súper interesante. Súper, súper interesante. Voy a resumir todo lo que estoy anotando que quiero que tengáis en cuenta o lo remarquéis en vuestros pensamientos si no lo habéis hecho. Vuelve otra vez a los escenarios, a los dominios verificables. Bueno, mucho más fácil no. Es fácil avanzar y sacar un rendimiento como en el tema del código IDE. las matemáticas le ponen escenarios o dominios donde las cosas no son tan así, son como mucho más difusas. Habla al final, en definitiva, que lo que se consigue a través de estos modelos LRM es que estemos consiguiendo que sean como más operativos con los datos, en definitiva, más útiles, pero quizá no más inteligentes. Habla François Choyet de la, bueno, de... que la generación de código a través de los test unitarios ya puede verificar, obviamente, el código. Pero hay otros escenarios, otros dominios, como por ejemplo la ley, podemos también incluir la salud y otros, donde no tenemos ese concepto de proceso verificable, donde tengamos una señal de recompensa claramente identificada, capaz de ser optimizada. Habla de la definición de AGI y entiende que un AGI para él y en lo que están trabajando no es la de OpenAI que está muy basada en lo que sería la automatización y procesos en entornos económicos o empresariales o tareas, enfocado a tarea, sino habla que para él, para Chojet, para François Chojet, el AGI sería capaz de abordar un nuevo problema, nuevas tareas en nuevos dominios con la misma efectividad que lo haría un humano. con los mismos datos entrenados y con el mismo consumo en definitiva ahí sí que estaríamos hablando de una inteligencia artificial general y equivalente o equiparable a la humana por prestaciones y por capacidad de prestaciones se va a conseguir, es lo que la apuesta pero antes de conseguir la AGI que él tiene en mente, seguramente se consiga o ya se ha conseguido, estemos muy cerca que es la propuesta quizá más enfocada que tienen tanto Darío Amodei como Sam Alman o Pena y Anthropic sobre esa HG basada en automatizaciones incluso en generación de código, matemáticas que es algo muy verificable pues ahí quizá esa HG se consiga mucho antes que la que vendría después que sería la que ellos están trabajando que sería mucho más óptimo fíjate que me ha sorprendido una respuesta de François que dice que los LLM si es imposible llegar a una HG y dice que no, dice que sí que sí que va a ser posible pero no es óptimo pero cree que para llegar a esa AGI a través del LM lo que se está haciendo es lo del harness lo de poner un envoltorio un arnés de una arquitectura o capas alrededor del LM que supongan una mejora que acerca a la AGI y que en algunos escenarios podría aceptarse como tal pero para él no es ese gran avance que tiene que ver tanto con la propia definición que él da como por la ineficiencia que él quiere ir a ese salto de eficiencia y que bueno también me ha gustado mucho esto de llamar a los LLM pues en definitiva vamos a modelos de computación porque al final sabéis la connotación del LLM y cómo se utiliza y a veces la difusión, la confusión que genera en determinados debates a nivel técnico. Bueno, qué decir de Choyet con Deep Learning, además él tiene uno de los libros fundacionales de Deep Learning al respecto, que recomiendo, que además va por la tercera edición, está además traducido al castellano, si queréis leerlo, habla de su trabajo en Google Brain, habla de una cosa interesantísima, que es... Que ellos están trabajando en algo que el descenso de gradiente no permite y es que en determinados problemas no es que no funcione bien el descenso de gradiente, el deep learning, sino que no encuentra la solución, no encuentra el programa generalizable. Y esto es algo que, claro, que yo no me comparo, pero sí que me permito obviamente pensar sobre esto. Me acuerdo que lo comentaba con gente más técnica. Había un vídeo sobre teoría del caos y fractalidad y es, en definitiva... la navegación en esos espacios latentes encontrar determinadas soluciones o llegar a determinados niveles de inteligencia requeriría capacidades de navegación en ese espacio latente pero además que ese espacio latente estuviera fuera capaz de generar determinados espacios o sitios o coordenadas es decir que es una combinación de las dos cosas de que llegues y de que luego con lo que viajes puedas llegar o encontrarlo yo creo que aquí es donde está realmente el límite qué tipo de soluciones generalizables no se encuentran y por qué y por qué me parece que es una maravilla escucharlo habla de los benchmarks de Arkadji, como salen el 1, el 2, el 3 eh eh Acordaos de ArcGIS 1,¿no? Y cuando sacaron O3, los primeros modelos de razonamiento, ahora con O2 el mismo colapso, pero con el tema de la GenPIC, la generación de código,¿no? Es decir, que como bien ha dicho François, prácticamente los benchmarks ArcGIS han anunciado el advenimiento de los modelos de razonamiento y de la programación agéntica,¿no? Y hablan de otra cosa también súper interesante importante, que es el loop del aprendizaje por refuerzo. Si somos capaces de tener una señal de recompensa verificable en esa fase de post-training, podemos meter al modelo, al LLM, en un loop de aprendizaje por refuerzo y optimizar eso a niveles muy altos. Y entonces es lo que estaban comentando con compañías que habían conseguido grandes logros en ArcGIS 2. En definitiva, se preguntan si todos estos modelos o los modelos actuales no es que sean más inteligentes sino son más útiles y hay un debate que es interesantísimo me acuerdo en mi época de instituto pero yo es algo que sigo trasladando o teniendo y es esa diferencia entre conocimiento e inteligencia y cuando se aplica una y cuando se aplica la otra contra más conocimiento menos inteligencia la inteligencia usa el conocimiento pero también lo crea el conocimiento, cuando tienes conocimiento no utilizas la inteligencia entras en modelo o en modo automático muy muy muy muy interesante a ver me estaban diciendo por aquí, vale. Muy interesante. Y luego han hablado del harness de los agentes,¿no? Toda esa arquitectura encima de los LLMs, alrededor de los LLMs que permiten soluciones estratégicas para solucionar determinados temas. Algo muy actual, incluso quería hacer un programa al respecto de los arneses de los agentes,¿no? Me ha salido un paper reciente muy interesante. Y en definitiva él dice, bueno, esto no No sé si nos acercan al AGI, pero estamos muy cerca de ello. No sé si nos acerca a lo que yo entiendo como optimización, optimalidad en inglés, no sé la traducción exactamente, pero sí que hace que estos modelos sean mucho más útiles. Entonces, bueno, me parece súper, súper interesante.
UNKNOWNVamos a ver...
SPEAKER_01Vamos a ver aquí por el chat. Estáis calladitos la Semana Santa. Los del chat, los que estáis conectados,
SPEAKER_06que hay gente. A ver si decís algo por aquí. Espera. Eso ya se ha lanzado. Sí, absolutamente. Entonces, si miras el V1, el V2, estaba realmente enfocado en tu capacidad de producir Slack. modelos causales de un patrón que te dieron, como el datos que te dieron. Así que era estático, pasivo y realmente enfocado en el modelo. Y V3 es completamente diferente. Estamos tratando de medir la inteligencia agente. Así que es interactivo, es activo, como si el datos no se le hubieran dado, debes ir a obtenerlo. La idea es que tu agente se desplaza en un nuevo medio ambiente, que es como un videojuego mini. Y no es no nos ofrece ninguna instrucción, no nos dice qué hacer, no nos dice cuáles son los objetivos o cuáles son los controles y tiene que entender todo por sí mismo, a través de prueba y error. Así que no estamos solo mediendo la habilidad de la IA de modelar su medio ambiente. También estamos mirando su eficiencia de exploración, su habilidad de adquirir objetivos en sí misma, como el diseño de objetivos, y, por supuesto, su habilidad de planear a través del modelo del medio ambiente creado y para ejecutar el plan. Así que juntos, todas estas habilidades, las llamamos Inteligencia Atlántica, y estamos buscando sistemas de IA que puedan aprender a jugar estos juegos y romperlos con el mismo grado de la eficiencia de la acción como un ser humano. Si miramos al ser humano, se desplazan en este nuevo entorno, intentan algunas cosas, empiezan a entender cómo funcionan las cosas. Pueden resolver el entorno en unos cientos o cientos de facciones. Estamos tratando de buscar sistemas de inteligencia que puedan corresponder a esta eficiencia. Y, por otro lado, sabemos que todos estos entornos de test en Arc 3 son solucionables por los humanos sin ningún entrenamiento anterior, porque realmente los hemos testado en personas regulares. Sí, al principio, solo ves esta descripción. y tienes estas llaves disponibles, pero no sabes qué hacer. Y debes averiguar todo de inmediato. Y los humanos son muy buenos en eso, por cierto. Son muy buenos en explorar eficientemente, en hacer sentido de algo nuevo y eventualmente
SPEAKER_10romper el juego. Y los modelos de frontera no son muy buenos en eso. Si los modelos de razonamiento rompieron el V1 y los ambientes de aprendizaje de reforzamiento rompieron el V2,¿necesitamos un avance nuevo para romper el V3?¿Tenemos la mejor tecnología los
SPEAKER_06técnicos actuales no funcionan? Sí, estoy muy curioso de ver cómo los labios de Frontier van a reaccionar a V3 y cómo van a comenzar a encargarlo. Está diseñado para ser más resistente a la misma estrategia de encargado como la que vimos para V2 en particular. Por supuesto, puedes intentar hacer más juegos como Arc 3 y luego entrenar a tus agentes en ellos. Pero la cosa es que deliberadamente hemos intentado crear un conjunto privado de un ambiente que es significativamente diferente del set público. Si miras el set público, no te da tanta información sobre lo que hay en el set privado. En el set privado, tendrás juegos muy diferentes con conceptos muy diferentes. Y también, el set público es pensado para ser sustancialmente más fácil. Tu desempeño en el set público no es representativo de lo bien funciona el sistema en el set privado. Por esta razón, va a ser más difícil de objetar. Y eso hace que sea un mejor test de inteligencia fluida, en vez de un test de cuánto esfuerzo que pusiste en Crackin' It. Estoy muy curioso,¿cómo te hiciste con estos juegos? Son tan creativos. Sí, instalamos un estudio de videojuegos para crearlos. Entonces, tuvimos más de 250 juegos. Y, ya sabes, son bastante rápidos de jugar. Cada juego dura quizás 10 minutos o un poco menos para jugar de inmediato, como Upon First Contact. Y tuvimos 250 y más. Y instalamos este estudio de juegos muy productivo donde añadimos cualquier La semana pasada tuvimos varios juegos en progreso, como este Pipeline, incluyendo diseño, implementación, revisión, testeo humano, y muchos ciclos de iteración para asegurarnos de que el juego salga bien.¿Quién está trabajando en el estudio? Sí, contratamos a un equipo de desarrolladores de juegos y construimos nuestra propia máquina de juegos.¡Guau! Así que son personas que han trabajado antes en la industria del videojuego. Exactamente. Una cosa que hay que tener en cuenta es que los juegos de Ark 3 son únicos. Están tratando de no borrar elementos y conceptos de los videojuegos anteriores. Están construidos totalmente sobre prioridades de conocimiento central, cosas como conocimientos elementos, como la física básica, la comprensión de objetos, la comprensión de la noción de agentes, por ejemplo, como un agente en objetos con objetivos e intenciones. Pero no estamos incorporando ningún idioma, ningún símbolo cultural, como los aros, por ejemplo, o el color verde, que significa ir, y el color rojo, que significa empezar, ese tipo de
SPEAKER_08cosas.
SPEAKER_06No hay conocimiento externo que esté involucrado en estos juegos. Es como uno de esos test de IQ que son solo de matemáticas, pero ahora tiene una serie de tiempo. Sí. No
SPEAKER_09es solo una
SPEAKER_06serie de tiempo, es interactivo. Tienes que crear tu propio camino a través del espacio de juego,¿verdad? Tienes que, en un test de IQ, Pero el problema, como lo es ARC 1 y 2, es que el dato que debes modelar está enviado a ti. Ya tienes el dato, solo necesitas encontrar la regla causal para explicarlo. Con ARC 3, de hecho, debes recoger el dato. Y debes hacerlo con eficiencia. Por supuesto, podrías decir, bueno, voy a forzar el espacio de cada estado de juego posible, y luego encontraré la solución. No puedes hacer eso, porque si lo intentas hacer, ganarías extremadamente bajo, incluso si logras resolver el nivel. tu eficiencia,
SPEAKER_04debes comparar la eficiencia de nivel humano. Es raro, es como un círculo casi completo. Este nivel de AGI con los juegos es la combinación de OpenAI, escribiendo, quiero decir, Tom Brown, uno de los cofundadores de Anthropic, tuvo que escribir el código de carnaval para permitir que la AI pre-GPT en OpenAI
SPEAKER_06jugara Starcraft. Sí, OpenAI trabajó en... En particular en Dota 2, en el modelo de OpenAI 5, que era, si recuerdo bien, no solo pre-GPT, sino también pre-Transformers, porque estaban trabajando con un stack de LSTM, si recuerdo bien. Y incluso antes de OpenAI, DeepMine, trabajaron mucho en videojuegos, solucionando videojuegos a profundidad, y fueron los primeros a hacer juegos de Atari en 2013. Fueron muy, muy recientes, muy visionarios en ese sentido, para trabajar en estos problemas tan recientes con estos métodos, que todavía son métodos muy modernos. Así que la gran diferencia es que si miras a los juegos de Atari, por ejemplo, o incluso a Dota, estás creando en el mismo ambiente que usas para probar. Efectivamente, solo estás tratando de memorizar las mejores estrategias. En el tiempo de entrenamiento, estás tratando de explorar todo el espacio de los estados de juego posibles, y produccionar, operacionalizar, ese conocimiento a través del modelo. Y entonces, a la hora de la infancia, básicamente solo recoges ese conocimiento. Y eso es lo que estamos tratando de evitar con Arc 3. No estás jugando juegos que has visto antes. No estás jugando juegos que has estado entrenado en, por ejemplo, millones de filas, como el modelo de OpenAI 5, por ejemplo. Estabas jugando una versión restringida de Dota 2 y fue entrenado en cientos de miles de horas de gameplay, efectivamente. Creo que tal vez en millones. Es una gran cantidad de datos. Con Arc 3, estás evaluando juegos que has visto por primera vez y cada acción que llevas explorando es mirada hacia tu valor de eficiencia. Así que estás realmente enfocado en medir la inteligencia fluida, tu capacidad de explorar eficientemente, producir un modelo mundial del medio ambiente y luego usar este modelo para inferir objetivos, planear hacia esos objetivos y
SPEAKER_04eventualmente romper el juego. Uno de los argumentos para NDEA es que puedes hacer todas las tareas inteligentes. Una tarea ARC puede costar 0.3 centavos, pero para la misma tarea en un modelo de fundación con LLMs es de 1 a 10 dólares. Y luego hay otro aspecto que hemos estado analizando en el que parece que más y más inteligencia, al menos en el lado de la LLM, puede ser distribuida en modelos más pequeños. Por un lado, están escalando, pero luego están distribuyendo modelos más pequeños y más inteligentes. Supongo que tu abordaje puede indicar que no son billones de parámetros. NDEA lograr AGI no puede ser es una cosa de escala. Hay un ideal platónico del modelo de NDA que realiza AGI.¿Alguna vez has pensado en eso en términos de que, bueno, estaría bien en un disco flop?
SPEAKER_06Bueno, ok. Hay dos cosas que están separadas. Hay la inteligencia fluida. Creo que va a ser una base de código muy pequeña y un muy pequeño conjunto de modelos relacionados con ella. Y probablemente va a estar en el orden de megabytes,¿verdad? Y luego tienes la base de conocimiento. por así decirlo, que va a estar alineado debajo de este motor de inteligencia fluida. La inteligencia fluida tiene que dibujar en algún conocimiento, y ese conocimiento va a tomar mucho más espacio. Pero creo que es importante diferenciarlo. Yo creo que cuando se crea una IGI, retrospectivamente, resulta que es una base de código que tiene menos de 10.000 líneas de código. Y que si se había conocido sobre eso, back in the 1980s, you could have done AGI back then, using the computer resources
SPEAKER_10available back then. Wow, that's a crazy prediction.
SPEAKER_06I think retrospectively this will turn out to be
SPEAKER_10true. Wow, so it was just like hiding under our noses in plain sight for like 40
SPEAKER_04years. It took us like 40 years to figure it out. Yeah, that's right, that's right. Well, that second thing sounds like Douglas Linott's like psych project, or is that the wrong way to think about it? It's like there's sort of knowledge about the world, and then there's methods, like the program, what I hear is like the program puede ser 10.000 líneas, y luego
SPEAKER_06se operan en... En base de conocimiento, es muy grande. Entonces, el problema con Psyche, quiero decir, había muchos problemas con él, pero uno de los grandes problemas
SPEAKER_04es que no había aprendizaje involucrado. Sí, era solo el conocimiento. El conocimiento era encraftado. Era conocimiento
SPEAKER_06puramente simbólico y probablemente era inacurado. La forma en que quieres construir un IGR es que quieres eliminar a los humanos del loop de mejora lo más posible. No quieres un sistema en el que cada mejora en el sistema tiene que involucrar a un ingeniero humano en hacer algo. Y es, en realidad, la fuerza de los modelos de aprendizaje profundo y fundación es que se puede escalar la base de conocimiento. Un LLM es efectivamente una base de conocimiento. Es una banca de programas de vértices modulares que mapean patentes de tokens de entrada a patentes de entrada de entrada. Y se puede escalar esa base de conocimiento añadiendo datos de entrenamiento y computación de entrenamiento sin más involucración humana. Por supuesto, todavía hay un poco de human involvement in making sure the training job completes, but it's minor. You've managed to remove humans from this improvement loop as much as possible. And that's also what we want for our system. We want a system that's self-improving, where the improvements are compounding, meaning that every time the system increases its capabilities, it's also increasing the rate at which it increases its
SPEAKER_04capabilities. I think this is a PG-ism. It's like, I'm sorry the essay is so long. If I had more time, I would make it
SPEAKER_06shorter. Yeah. Sí, cuando estás mirando un problema duro, es más difícil producir una solución corta, elegante y concisa que una
SPEAKER_04solución pesada y mal diseñada. Sí, puedes forzarla, pero la versión más elegante es muy, muy corta. Y es como lo que dijiste sobre cómo esto
SPEAKER_06podría ser. Sí, esta es literalmente la forma del tipo de enfoque de la IA que estamos creando. Y creo que también es la forma de la ciencia en sí misma. es fundamentalmente un proceso de compresión simbólica en el que estás mirando una gran cantidad de observaciones, como la posición de los planetas en el cielo o algo así, y lo estás compresionando en una regla simbólica muy simple. Estás diciendo, sí, todas estas cientos de observaciones son simplemente una simple ecuación. Esa es la compresión simbólica. Y para hacer esto, por cierto, necesitas el modelo para ser simbólico. No podrías encajar una curva y decir, bueno, esa curva es mi modelo. Eso nunca sería óptimo, nunca sería conciso o elegante lo suficiente. Y eso no es lo que la ciencia está haciendo. La ciencia no se trata de encajar una curva. La ciencia se trata de encontrar la ecuación, de encontrar el modelo simbólico más compresivo de tu pila de observación. Y ese es el proceso que estás tratando de recrear en forma de software. Podrías decir que el enfoque de NDI en la sintesis del programa es que estamos construyendo ciencias encarnadas, ciencias el
SPEAKER_10método científico en forma algorítmica. Estoy curioso si lo comparas con la biología. Claramente, los LLMs no aprenden de la manera que los humanos aprenden, porque no hay niños que leen todo el Internet.¿Crees que la sintesis del programa es más cercana a la manera en que los humanos aprenden?¿O crees que eso es una tercera frontera, donde incluso si la sintesis del programa es correcta, habrá una tercera
SPEAKER_06frontera aún no descubierta para hacerlo, que es lo que hacemos? Creo que sí. Creo que los humanos hacen una cantidad de sintesis del programa. Creo que La forma en que los humanos aprenden y la forma en que el cerebro humano funciona es muy pesada. No hay un principio sencillo y elegante detrás de todo. Es una implementación de principios fundamentales, los principios fundamentales de la inteligencia. Creo que podemos identificar estos principios e implementar la inteligencia de inmediato, desde los principios principales, de una manera que será mucho más eficiente que el cerebro humano. Creo que el cerebro humano es pesado y puede ser una buena fuente de inspiración. para la IA, pero creo que sería contraproductivo simplemente tratar de observarlo e implementarlo de nuevo y hacerlo prácticamente plausible. Creo que eso es contraproductivo. No lo estamos tratando de hacer en India. Estamos tratando de encontrar cuáles son los primeros principios de la inteligencia y cuál es el sistema que mejor los implemente. Pero sí, creo que la mente humana hace algo que se ve mucho en el nivel más alto, como programas. Estamos actualmente construyendo modelos causales de nuestros alrededores. Describimos nuestros alrededores en nuestra mente como objetos, agentes y relaciones entre objetos que son totalmente simbólicos y causales en la naturaleza. Este es exactamente el proceso que nos permite generalizar tan bien y adaptarnos tan bien a la novela a la
SPEAKER_05ventana. Estoy curioso sobre Endear, la compañía en la que estás construyendo. Todos hemos escuchado sobre la historia de la creación de OpenAI. algo que siempre me ha sorprendido es como si Sam y Greg dijeran que era un poco raro en los primeros días porque no sabían realmente qué hacer porque era como un montón de gente como quedarse en un apartamento, me gustaría escuchar un poco de qué ha sido eso para India, como qué parecía el primer día y solo tal vez para las personas que están interesadas en empezar estos abordajes
SPEAKER_06alternativos que no tienen un tipo de background de investigación,¿cómo deberían pensar sobre eso? sí, así que empezamos el primer día con la visión de aprendizaje simbólico como si básicamente sabiéramos que queríamos hacer simbólicos de síntesis de programas simbólicos que querías crear en tu abordaje al aprendizaje de máquinas, donde reemplazas curvas paramétricas con modelos simbólicos lo más cortos posible. Y luego la gran pregunta fue,¿cómo encontramos estos modelos? Empezamos con la idea básica, que aún es la idea que estamos siguiendo hoy, que es que vamos a hacer una búsqueda de programas guiados al aprendizaje profundo. Tienes un espacio simbólico para explorar y es grande, es en realidad combinatorial. No harás éxito si solo usas la fuerza de la sangre. No va a escalar. Tienes que romper y la forma de hacerlo es añadir la guía de aprendizaje profundo. Es muy similar a los principios de algo como AlphaGo o AlphaZero. Ese fue nuestro punto de comienzo. También no teníamos ideas claras de cómo construirlo, así que intentamos muchas cosas diferentes. Y nos tomó aproximadamente un año y medio para llegar a buenas fundaciones donde podamos empezar a construir un sistema que se compone. Y creo que eso es lo que es muy importante cuando estás en un laboratorio como este, que no quieres estar en una situación en la que estás constantemente intentando algo nuevo. No estás reutilizando ningún aprendizaje, ningún descubrimiento de los procesos de producción. Quieres un stack que se compone. Quieres construir fundaciones reutilizables, y luego el siguiente layer, y luego el siguiente layer. Y, por supuesto, quieres construir la fundación adecuada. No comites a la base demasiado temprano, pero también asegúrate de que en algún momento estás construyendo esta
SPEAKER_10estructura de compaginación.
SPEAKER_06Y esa es la situación en la que estamos ahora.¿Es el final de ARC 3 o habrá un ARC 4, 5, 6?¿Puedes seguir haciéndolo más difícil? Sí, sí, creo que absolutamente habrá ARC 4 y ARC 5. Quiero decir, estamos planeando ARC 5. El punto de la serie de benchmark de ARC AGI es no decir que, bueno, ya sabes, aquí está este test. Si lo pasas, esto es AGI. En lugar de eso, lo que estamos tratando de hacer es que estamos encargando el espacio residual de las capacidades de feria. Como Frontier está avanzando y estamos diciendo, bueno, si lo comparamos con las habilidades humanas, hay todas estas tareas, todas estas cosas, no están funcionando bien, así que vamos a crear un benchmark para encargar eso. Y así, es un objetivo en movimiento,¿verdad? No es un punto fixo, es un objetivo en movimiento. Habrá Arc 4, que estará en el espíritu de Arc 3, pero más adelante. enfocados en el aprendizaje continuo y el aprendizaje de currículum en escalas de tiempo más largo. Así que tendrás más juegos, pero tendrás más niveles, y los niveles se compondrán, lo que significa que para cada nivel necesitas reutilizar cosas que has aprendido antes. Y eso va a ser Arc 5. Y estoy realmente muy emocionado con Arc 5. Es muy nuevo y diferente. Es todo sobre la invención. Y, quiero decir, verás lo que significa. Eventualmente, espero que tengamos cosas para probar, En realidad, cuando lleguemos más cerca de AGI, eventualmente no habrá diferencia measurable entre las capacidades humanas y la eficiencia de aprendizaje de parte humana y la AGI de frontera. Y cuando eso ocurra, cuando se vuelve efectivamente imposible medir el gap, este es el
SPEAKER_04momento de AGI. Bueno, entonces las máquinas se llevarán a cabo y luego crearán ARC-ASI-1. Sí, ARC-ASI. Y luego seguirá de ahí. Sí, sí. Si tuvieras que hacer una comprensión, quiero decir, años, décadas, meses. Mi línea
SPEAKER_06de tiempo para AGI, ya sabes, si solo intentas extrapolar desde el precio actual del progreso y la cantidad de inversión que va a no solo el stack de LLM, sino también ideas de lado, betos de lado que podrían funcionar, como India, por ejemplo. Creo que probablemente estamos mirando a AGI 2030, principios de 2030. So, around the time that you are going to be releasing like maybe arc 6 or arc 7, eso
SPEAKER_10probablemente va a ser un AI. J.P. Vosotros estáis haciendo un enfoque diferente a los LLMs.¿Crees que hay espacio para que más startups exploren otros nuevos enfoques?¿Y si hay otros que crees que son prometedores pero que no tienen tiempo para explorarlos?
SPEAKER_06J.P. Sí, absolutamente. Quiero decir, hay muchos diferentes enfoques que podrías intentar. Como dije, la computación es un gran igualizador. Creo que si miras la cantidad de computación y recursos que hemos encontrado en la aprendizaje profunda y en la descendencia de grados y en la escalabilización de eso, si tuvieras la misma cantidad de inversión en casi cualquier otra cosa, también habrías visto resultados extremadamente emocionantes, como los algoritmos genéticos, por ejemplo. Si tratas de escalar los algoritmos genéticos, estoy seguro de que puedes hacer cosas increíbles con eso. De hecho, probablemente podrías hacer ciencia nueva, porque eso se basa en la investigación, y la investigación es el mejor fit para automatizar el método científico. Creo que ahora mismo también hay abordajes que se construyen sobre el tema actual, con modos alternativos como modelos de espacio-estado, por ejemplo. Hay la arquitectura de XLSCM. Básicamente, la frontera actual es una rama de cosas. Puedes tomar cualquier layer en la rama y intentar proponer una alternativa. Si propones una arquitectura alternativa, puedes hacer, por ejemplo, modelos recurrentes en lugar de transformadores para la arquitectura. O puedes hacer un nivel más bajo. Puedes decir, going to be training uh parametric curves but you're going to get rid of clandestines right we're going to use like search maybe you're going to do new evolution uh that's the slower level and the lowest level is uh the level where we're operating where we're saying well actually olvídalo de curvas, olvídalo de aprendizaje paramétrico, olvídalo de descenso de grado. Vamos a hacer algo completamente diferente. Y creo que si quieres construir una IA óptima, estás forzado a volver a la fundación del stack. No puede ser como... una capa
SPEAKER_08añadida a la pila.¿Crees que para los investigadores aspirantes que quieran hacer un nuevo laboratorio de Neolab con un enfoque
SPEAKER_06diferente, deberían estar leyendo libros de investigación de los 70s o 80s y ir profundamente en aquellos con enfoques que no estaban tan involucrados en estos días? Esa es una gran idea, porque antes, en la historia de la timeline de investigación de AI, la gente estaba explorando más cosas y cosas muy diferentes. Tuvimos este tipo de colapso de todo en un enfoque. Es una mala idea. Considerando que no hace
SPEAKER_08mucho
SPEAKER_06tiempo, como hace 20 años... Tuvimos el colapso de SVMs también. Sí. No lo describiría como un colapso porque no había tantas personas haciendo SVMs y era un campo mucho más pequeño. Pero había una comprensión amplia de que las redes neurales eran una abordaje falso. Las redes neurales no funcionaban y era un gasto de tiempo seguir
SPEAKER_08intentándolas.
SPEAKER_06Sí. Incluso en los últimos años, cuando llegué a la IA, la gente me decía que no se intentaran las redes. Y yo decía que sí, pero parece mucho lo que el cerebro está haciendo. Estoy interesado en eso. Si todos están trabajando en algo, están descartando ideas que van a ser muy productivas. Y en los años 70 y 80, la gente está intentando más cosas. Y creo que los algoritmos de la ciencia un muy buen ejemplo de eso. Creo que este es un proyecto que tiene un enorme potencial, pero no hay mucha
SPEAKER_04gente que esté pensando en escalarlo profundamente.¿Hay alguna característica que estarías buscando?¿Es tan simple como si hubiera una ley de escala que pudiera suceder, incluso si es diferente?¿O es que es demasiado, ya sabes, pensar
SPEAKER_06por una analogía? Creo que estás buscando de esa escala. Creo que es un no comenzar. Si estás trabajando en algo, pero la única forma de aumentar las capacidades del sistema es tener ingenieros humanos y investigadores que pasen tiempo en ello, no funcionará. Porque incluso si la idea es muy inteligente y muy elegante y funciona muy bien, las capacidades van a ser limitadas, van a ser limitadas por un investimiento humano,¿verdad? Quieres estar en un diseño en el que el sistema puede mejorar sus capacidades sin que haya un humano en el loop, sin que
SPEAKER_04haya un humano en el loop. No lo hagas como lo hicimos hace 10 años. Hazlo con la idea de que el mejoramiento recurso está basado en el
SPEAKER_06principio. Sí. No necesariamente el mejoramiento recurso, porque Deep Learning, por ejemplo, no es el mejoramiento recurso. Pero con la idea de escalar sin botones humanos. Quieres eliminar al humano de la fila de mejoramiento. La gran fuerza de Deep Learning es que los modelos se han mejorado y mejorado simplemente añadiendo entrenamiento de computadoras y entrenamiento de datos. Es un poco de caricatura porque, por supuesto, añadir estos factores requiere mucho de la involucración humana. Pero básicamente, esa es la idea, que tienes este deslizamiento de la curva de mejora y el número
SPEAKER_10de esfuerzos humanos que se necesitan para ser inyectados en el sistema. Sí, o esfuerzos humanos que ya se han hecho. Porque los LLMs requieren un enorme número de esfuerzos
SPEAKER_06humanos. Es solo el esfuerzo humano para construir el Internet y ya lo hemos construido. Sí, en realidad, cada vez menos ahora que estamos haciendo entrenamiento en un entorno de interacción muy fiable. Porque entonces solo necesitas una pequeña cantidad de esfuerzos humanos para crear el medio ambiente. Y de esa pequeña cantidad de esfuerzos, estás creando datos exponencialmente más detallados. Pero, al principio, creo que para primar la máquina, necesitas esta enorme cantidad de abstractos humanamente generados encodados en datos textiles. Y si no empiezas de ahí, no puedes poner el sistema
SPEAKER_04en este loop.¿Tienes algún consejo para mí para empezar un proyecto de open source? proyectos, cosas que hacer, cosas que no hacer en el espacio de AI porque No estoy seguro de cómo me signé para esto en los últimos 14 días, pero creo que tengo alrededor de 10.000 a 30.000 personas que usan G-Stack cada día. Eso es wild. Sí. Y no sé... Tengo un trabajo.¿Cómo fue empezar Keras?¿Cómo lo mantuviste?¿Qué es un buen mantenedor?¿Qué aprendiste de eso?
SPEAKER_06No sé, esto puede ser una hora. Sí, muchas aprendizajes de la creación de Keras. Así que ahora mismo estoy menos involucrado en ello. Hay un gran equipo en Google que está trabajando en ello y están haciendo un trabajo increíble. Así que es posible no, ya sabes, unir a la gente. Es posible empezar algo. Sí, es posible empezar algo. Eso es una alegría. Y luego involucrar a más gente. Y en algún momento se vuelve su propia cosa. Es solo, ya sabes, solía ser tu bebé, pero ahora es un adulto, es un adulto, y lo que está pasando es su propia vida. Así que si me preguntas los factores por los que RemadeCare ha sido exitoso, Primero, había un gran enfoque en hacer las APIs sencillas e intuitivas. Había un gran enfoque en la usabilidad. Y esto fue inspirado por Scikit-Learn. Scikit-Learn era como la biblioteca de aprendizaje de máquinas OG para Python. Y lo que lo hizo éxito fue que era tan fácil empezar con ella. Entonces, al principio, pensé que iba a montar toda esta funcionalidad que había creado bajo APIs muy sencillas, como Scikit-Learn. Eso fue como la gran idea. El enfoque en la usabilidad no sólo es asegurarse de que la API sea simple, sino también asegurarse de que toda la experiencia de acercamiento sea agradable y fácil. Como los docs deberían ser muy informativos. Deberían, ya sabes, los docs deberían no sólo estar contándote sobre cómo usar esta cosa, sino que deberían estar enseñándote sobre el domenio en primer lugar, porque los que llegan a tu sitio web no serán expertos en Deep Learning. Serán personas que están buscando tal vez empezar Y entonces tienes que enseñarles no sólo cómo usar la herramienta, sino lo que la herramienta es buena para y todo el campo alrededor de ella. Y luego, sabes, tienes que poner un montón de inversión en la construcción de una comunidad. Una cosa que hicimos un poco en Google, en realidad, ya sabes, Google lo hizo un poco difícil y yo estaba triste por eso, es contratar a tus usuarios de poder, como contratar a tus fans. Esto es una idea realmente, realmente buena. Como encontrar la a los usuarios más entusiastas de tu comunidad y contratarlos en tu equipo.¡Increíble! Sí, y siempre son las mejores personas,¿verdad? Bien,
SPEAKER_04es hora de comenzar. GStack.org, pongo un montón de dinero mío y luego contraté a un montón de personas para trabajar en ello. Eso suena bien. Creo que has sido un líder y un pionero y somos tan felices de tenerte con nosotros. Hay personas que nos están viendo que están en el comienzo de su adolescencia, incluso. Ciertamente sus carreras profesionales. o, en realidad, a la gente de todo el mundo. Están tratando de entender qué significa esto. Cuando la inteligencia se vuelva
SPEAKER_06ampliamente aplicable,¿qué les dirías? Si estuvieras a 18 años ahora,¿qué les dirías? Sí, quiero decir, hay mucha gente hoy que es muy pesimista, muy negativa sobre el aumento en las probabilidades de AI. Dicen, oh, ya sabes, voy a tener un trabajo pronto, va a haber un aumento en el empleo, la AI va a acabar completamente. Y mi opinión es que la más conocida, la más experiencia que tengas sobre cosas como el programa, por ejemplo, la mejor que puedas usar y aportar estas herramientas para tus propios beneficios. Y con el correcto tipo de experiencia, todo este progreso AI es en realidad un empoderamiento. Es algo que puedes aportar para ti mismo. Quiero decir, eso es exactamente lo que hiciste con tu proyecto,¿verdad? Sí. Y sí, más gente debería tener este pensamiento de intentar aprender lo máximo posible, no solo sobre la IA, pero sobre el domenio al que quieren aplicar la IA. Así que deberían buscar transformar este nuevo desarrollo en una oportunidad, en una herramienta que puedan usar para mejorarse sus vidas. Creo que ese es el mindset correcto, porque no vas a detener el progreso de la IA. Creo que es demasiado tarde para eso. Así que la siguiente pregunta es, bien, el progreso de la IA está aquí.¿Va a seguir acelerando?¿Cómo lo haces?¿Cómo lo manejas?¿Qué
SPEAKER_04crack?
SPEAKER_01¡Qué crack! Buenísima, buenísima la charla. Bueno, aquí ya estáis en el chat. Hola a todos,¿qué tal?¿Cómo estáis? Jorge, Agustín, Benítez Acosta,¿qué tal? Bueno, repasamos rápidamente lo que han dicho.
UNKNOWNEh...
SPEAKER_01Han hablado de trasladar los datos a una ecuación. Esa sería la parte simbólica, la parte en que comprimiríamos la interpretación o la generalización de los datos a través de lo simbólico. la ciencia, qué hace la ciencia más que encontrar esa ecuación con la forma del software en DEA con DEA como se pronuncia la nueva empresa de François Choyet habla de algo muy interesante que yo he estado pensando estos días sobre si realmente cómo aprendemos los humanos es la solución más simple y elegante Nos hemos inspirado, pero él dice que quizá no sea la biología lo más adecuado, esto de observar y reimplementar o implementar aquello que vemos, sino que quizá deberíamos entender los principios básicos de la inteligencia y crear from scratch. toda la parte simbólica y causal. Habla de las referencias hacia alfa, co, alfa, cero. Le preguntan si habrá un arca allí, cuatro o cinco. Y... A ver, un segundo, que aquí se... Bueno, habla de que ArcG 4, porque llegó, no dirán nada, pero sí que dice, ArcG 4, están trabajando en ArcG 5 y dice que ArcG 4 irá, será una continuación de ArcG 3 y se centrará en el aprendizaje continuo, en el continual learning y en todo el tema de estar más tiempo ejecutando o trabajando. ArcG 5 se centrará en la invención y dice que la AGI, su timeline es 2030. otra vez lo ha vuelto a decir, 2030, y que Arca G6-7, que coincidiría con esas fechas, sería el momento AGI. 2030, lo dicho, la AGI, y un poco después, unos años después, la superinteligencia. No estamos en relatos de ciencia ficción, estamos contando la historia de la inteligencia artificial, de la emergencia, de la AGI, de la ASI, los hombres que caminarán con los dioses.¿Os acordáis a aquellos famoso programa pionero, pues ahora hemos pasado de locos a profetas. Bueno, da igual. Ni una cosa ni la otra. La idea de XHABAI es aportar conciencia, valor, pensamiento crítico y que seáis vosotros quienes aprovechéis el escenario, la oportunidad, pero siempre con eso, con pensamiento crítico, no con la antorcha de la cesura, con la antorcha de los medievos. Habla de los algoritmos genéticos,¿no?¿Qué hubiera pasado se hubieran podido utilizar de forma más profunda y escalable. Olvidémonos de las curvas, del gradiente de descenso y de lo que tenemos que centrarnos es la optimización de la inteligencia artificial, que es lo que están haciendo ellos. Ha dicho una cosa, me he saltado el orden, no pasa nada.¿Qué es el tema de cuando analizan el Arca G3 que está basado en juegos nuevos, no en juegos antiguos, no introducen ni lenguaje ni símbolos, no hay conocimiento externo? Eso ya lo hizo PNI con Dota 2 y lo hizo DeepMind también con, bueno, modelo gato, si os acordáis, juegos de Atari, etc. Pero estos son juegos nuevos. Habla de toda esta técnica de que los LLMs a través de la destilación de modelos cada vez más pequeños, si puede llegar a lo que él quiere conseguir dice que no, que el tema es óptimo y la AGI será algo muy pequeño, esto es algo que John Carmack ya lo decía la AGI, a lo mejor cabrá en un disquet 10.000 líneas de código dice que a lo mejor lo podríamos ejecutar en 1980 porque una cosa va a ser el conocimiento y otra cosa la inteligencia que se aplique ese conocimiento y ese algoritmo de la inteligencia sí que será muy óptimo y reducido ahí es la clave esto es lo que yo pienso realmente ahí es perfecto, habla del self-improving y Bueno, que el enfoque siempre tiene que ser un enfoque de escalado, de que el humano no esté en el loop, que sea un self-improving sin depender del humano, que no esté condicionado la calidad del modelo con el esfuerzo humano. Y habla de un consejo para la gente de 18 años, que bueno, en definitiva, aprender inteligencia artificial, aprender programación, que esto siempre va a servir, pero sobre todo aprender el dominio en el que queremos aplicar la inteligencia artificial, pues aprender. Pero en definitiva, aprender a Aprender y aprender y ser humanos cada vez más. con una capacidad mayor, más inteligentes, con más conciencia, con más espíritu, con más alma, con más espíritu crítico,¿no? Y yo creo que vienen momentos complicados, momentos complicados, tsunami, impacto en el trabajo, habla Choye también, pero un momento apasionante. Ha sido un programa corto, pero me parece un pedazo de charla con enfoque y cosas muy, muy interesantes.
UNKNOWNBueno,
SPEAKER_01No entiendo lo que quiere decir esto. Habiendo hablado anteriormente sobre los agentes SAS Y esto hablar o referir sobre esa actitud y forma interna de los modelos lleva directo a la epistocracia, no entiendo, es decir, DOXANP. Explicaros bien porque entre que no he tomado café, que me voy ahora a Semana Santa, bueno aquí es festivo, no sé si en todas las provincias, pero como no sé ni el día en el que estoy, sí que quería empezar la semana con un InsideX, con vosotros en la comunidad, habiendo habido ese... descanso de programas normales. Habéis tenido los de Anticuaznova, que me diréis la opinión. Este programa, esta charla me ha gustado muchísimo. Choyet, alguien, François Choyet, alguien a seguir y del que aprender,¿no? Bueno, seguimos en contacto. Gracias por estar ahí. Nos vemos en la próxima. Un abrazo, amigos. Dadle al like.
SPEAKER_07Disconnecting your body. Disconnecting your mind. Closing connection with your soul.
UNKNOWNSimulation is finished.
SPEAKER_07I hope you enjoy the podcast of XHub AI. Support us in Patreon and PayPal. Join community in Discord. Follow us in social networks. Working in the next episode. See you soon.
UNKNOWNBye.