xHUB.AI

T6.E091. INSIDE X SOFTWARE 3.0 Del Vibe Coding a la Ingeniería Agéntica con Andrej Karpathy

Season 6 Episode 91

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 1:15:39

# TEMA 
SOFTWARE 3.0 Del Vibe Coding a la Ingeniería Agéntica con Andrej Karpathy

# PRESENTA Y DIRIGE 
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai

# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.

# REDES SOCIALES
🌐 youtube : xhubai
🌐 X  :   xhub_ai | placidodomenech
🌐 twitch :   xhub_ai | placidodomenech
🌐 instagram :   / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.

# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641

# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641

# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬

Send us Fan Mail

Support the show

SPEAKER_00

Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.

SPEAKER_01

intentes doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.

SPEAKER_04

¿Qué verdad?

SPEAKER_01

Que no hay cuchara.

SPEAKER_00

¿Que no hay cuchara?

SPEAKER_01

Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.

SPEAKER_05

Hola, buenas tardes a todos, amigos.¿Qué tal?¿Cómo estáis? Soy Plácido Domínguez Pí. y tenemos un bueno empezamos la semana una semana que ya os advierto que va a ser épica en contenidos y anuncios y espero que me echaréis de menos porque bueno algún respiro me he tomado este fin de semana viernes sábado domingo que yo supongo que los seguidores agradecéis por la cantidad de contenido y de calidad que no os debéis perder que os proporcionamos ahí están las audiencias muy bien acogidos todos los programas que hicimos la semana pasada Empezamos la semana con uno que nos dejamos atrás, que fue el de Andrés Carpati, como no, un referente en el desarrollo de software y inteligencia artificial. Y vamos a hablar hoy sobre, vamos a ver la entrevista o charla que dio en Sequoia y vamos a analizarla, qué es lo que dice, porque por los titulares, yo no la he visto todavía, ese otro antes y después, o sabéis que las charlas de Andrés Carpati marca en puntos de inflexión importante para el sector, para la industria pero en este caso sobre todo para los desarrolladores y bueno esa evolución como hemos titulado software 3.0 del bytecoding a la ingeniería agéntica así que bueno vamos por ello anunciaros que hoy si hay programa doble a no ser que pase algo a las 7 y media me han dejado solo bueno el resto de programas no Pero es verdad que como hay tal cantidad de programas, no sé por qué no ha animado mucho al personal, que es el de la niebla. El futuro de la inteligencia artificial está en una niebla, está detrás de una niebla, envuelto en una niebla. Es un artículo muy interesante. con el que reflexionar si qué es lo que está ocurriendo alrededor de la inteligencia artificial y bueno me pareció tan interesante que vamos a hacer programa en principio quería que fuera un debate pero bueno veremos si se incorpora alguien un paso con el de generación z y si no pues lo haré solo leemos el artículo juntos y reflexionaremos sobre el futuro de la inteligencia artificial Y si está realmente envuelto en una niebla o no. Ahora aseguro que opiniones para todos los gustos. A ver que ponga aquí un poco de música. Y bueno, decimos tres cositas y empezamos. Este es un espacio, un contenido de la comunidad de XHABAI, la comunidad de inteligencia artificial y ciencias transversales de habla hispana. Y esta semana vamos a anunciar algo importante, necesario, que yo creo que va a gustar mucho, que va a ampliar y enriquecer XHABAI y es ZHABAI.¿Y qué es Z-Hab ahí? Pues lo vamos a dejar, suena un poco mal, ahí,¿no? Lo vamos a dejar ahí. Lo iremos anunciando esta semana.¿Qué es exactamente? Hombre, alguna pista ya tenéis del contenido de la semana pasada, pero bueno, vamos a ir anunciando qué va a consistir, cuáles van a ser sus miembros...¿Cuál es la iniciativa?¿Cuál es el objetivo?¿Cuál es el propósito?¿Cuál va a ser la relación entre X Havaí y Z Havaí? Y bueno, espero que os guste porque yo creo que es una iniciativa necesaria y que yo creo que va a dar mucho juego y ampliar el impacto y la visibilidad y el... y el conseguir esos objetivos que XHabay tiene,¿no? Iremos explicando, vamos a hacernos un poco los interesantes, pero bueno, no es muy difícil decodificar. Y si queréis, nada, si queréis entrar en el Discord de la comunidad de XHabay, que somos ya casi 600 miembros, tenéis una cantidad de recursos bueno, me diría infinitos,¿no? Y bueno, también debates acalorados, hay de todo, hay de todo, y como cada vez somos más, cada vez hay más de todo. Pero bueno, yo creo que es una comunidad y un Discord de calidad, profesional. Ahí no se os vende ningún tipo de curso. Y bueno, lo dicho, mucha gente interviniendo, participando, colaborando, aportando contenidos, aportando opiniones. Se generan rifirrafes también, así que tenéis que estar ahí, es gratis. Me enviáis un mensaje directo por redes sociales o un correo y yo os paso un enlace y estáis dentro, vamos y si os gusta lo que vais a ver, lo que conocéis de XHabay, pues podéis compartir, poner me gusta, comentar que es verdad que cada vez hay más comentarios, no me da tiempo a contestarlos todos la mayoría de veces, cada vez a veces voy poniendo ya un corazón, pero que sí que los leemos todos, no es una guía lo que hay detrás y y bueno suscribíos suscribíos si no estáis suscritos para que y poner la campanita para que os avise de todos los programas en directo no lo sabemos decir pero si os suscribíos poner la campanita para que os avise porque si no los programas que hacemos a no ser que estéis en discord que os avisamos eh bueno podéis perderos alguno aunque evidentemente luego se quedan y lo podéis ver en diferido ya sea en youtube o lo podéis ver en en las plataformas de podcast eh hay pendiente de... Bueno, ya lo comenté. Luego lo comentaré. Y bueno, vamos a verlo. entenderla y en el podcast también. Vengamos al lío.

SPEAKER_03

Estamos muy emocionados por nuestro primer invitado especial. Ha ayudado a crear la IA moderna, luego a explicarla y, en ocasiones, a nombrarla. De hecho, ayudó a fundar OpenAAI en esta misma oficina. Fue quien consiguió que Autopilot funcionara en Tesla en su momento y tiene el don excepcional de hacer que los cambios técnicos más complejos parezcan accesibles e inevitables. Todos lo conocen por haber acuñado el término codificación de vibraciones el año pasado, y yo. Pero en los últimos meses, ha dicho algo aún más sorprendente. Que nunca se había sentido más atrasado como programador. Ahí es donde empezamos hoy. Gracias, André, por acompañarnos. Sí. Hola. Hola. Emocionado de estar aquí y de dar comienzo. Vale. Hace tan solo un par de meses, dijiste que nunca te había sentido más atrasado como programador. Es sorprendente oírlo de ti precisamente.¿Puedes ayudarnos a explicarlo?¿Fue esa sensación estimulante o inquietante? Sí. AIM. Una mezcla de ambas. AIM. Bueno, en primer lugar, supongo que, como muchos de vosotros, ENDS ha estado usando herramientas de agentic como LotCode, ENTI, Adyacente Things, ENTI, durante un tiempo, ENTI, quizá durante el año pasado, ENTI, cuando salió y era muy bueno para fragmentos de código, ENTI, pero a veces se estropeaba y había que editarlo, ENTI, y fue bastante útil. Y luego diría que diciembre fue un momento claro en el que me tomé un descanso y tuve un poco más de tiempo. Creo que a muchas otras personas les pasó algo parecido. Y empecé a darme cuenta de que con los últimos modelos los fragmentos salían bien. Oh, y luego sí. seguí pidiendo más y salían bien. Oh, y no recuerdo la última vez que lo corregí. Oh, y luego empecé a confiar cada vez más en el sistema y empecé a programar con ByteDent. Así que creo que fue una transición muy dura. Creo que mucha gente, de hecho, intenté enfatizar esto en Twitter o X porque creo que mucha gente experimentó la IA el año pasado como algo adyacente a ChachiPT, pero realmente tuviste que volver a mirar. Y tuviste que mirar a partir de diciembre porque las cosas han cambiado fundamentalmente y especialmente en este de trabajo coherente de agentic que realmente comenzó a funcionar. Y yo diría que sí. Y fue solo esa comprensión lo que realmente me hizo adentrarme en toda su madriguera de, ya sabes, proyectos paralelos infinitos. Mi carpeta de proyectos paralelos está extremadamente llena con muchas cosas aleatorias y solo codificación UV todo el tiempo. Bueno, un sí, eso pasó en diciembre, in diría yo. Y estuve analizando las repercusiones de eso, in, ya que has hablado mucho sobre esta idea de LLM como una nueva computadora que no es sólo un mejor software y sino un paradigma informático completamente nuevo y el software 1.0 tenía reglas explícitas y el software 2.0 tenía pesos aprendidos y el software 3.0 teis que el software 3.0 vi punto sabes si eso es realmente cierto o que construye un equipo de manera diferente el día que realmente cree esto sí exactamente wing así que en el software 1.0 estoy escribiendo código val en el software 2.0 estoy programando creando conjuntos de datos y entrenando redes neuronales entonces entra la programación es algo así como organizar conjuntos de datos y quizás algunos objetivos y arquitecturas de redes neuronales. Y luego lo que pasó es que IL, básicamente IL, si entrenas uno de estos modelos GPT o LLM en un conjunto suficientemente grande de tareas implícitas, IL, básicamente IL, implícitamente IL, porque al entrenar en Internet tienes que realizar varias tareas a la vez con todas las cosas que están en el conjunto de datos. Bueno, en cierto sentido, estas se convierten en algo así como una computadora programable. Por lo tanto, ACE, el software 3.0, se trata de que tu programación ahora se convierte en indicaciones. Y lo que hay en la ventana de contexto es tu palanca sobre el intérprete ACE, que es el LLM ACE, que es como interpretar tu contexto y realizar cálculos en el espacio de información digital. Así que supongo que sí, eh, esa es una especie de transición. Y creo que hay algunos ejemplos que realmente me lo hicieron entender y tal vez puedan ser instructivos. Por ejemplo, y cuando salió OpenCloud 8, cuando quieres instalar OpenCloud 8, esperarías que normalmente este fuera un script bash como un script de Shell. Así que ejecuta el script de Shell para instalar OpenCloud. Pero la cuestión es que para dirigirte a muchas plataformas diferentes y muchos tipos de computadoras diferentes, podrías ejecutar OpenCloud Estos scripts de Shell generalmente se inflan y se vuelven extremadamente complejos. Pero la cuestión es que sigues estancado en un universo de software 1.0 en el que quieres escribir el código. Y es, de hecho, la instalación de Open Claw es un copiar y pegar de un montón de texto que se supone que debes darle a tu agente. Básicamente, es una pequeña habilidad de copiar y pegar esto y dárselo a tu agente para que instale Open Claw. Y la razón por la que esto es mucho más potente es que ahora trabajas en el paradigma del software 3.0 en el que no tienes que explicar con precisión todos los detalles individuales de esa configuración. El agente tiene su propia inteligencia que envía paqueta, y luego sigue las instrucciones, y observa tu entorno, tu ordenador, y realiza acciones inteligentes para que las cosas funcionen, y depura las cosas en el bucle. Es mucho más potente,¿verdad? Así que creo que es una forma muy diferente de pensar en ello. Es como,¿cuál es el fragmento de texto que debes copiar y pegar en tu agente? Ese es el paradigma de la programación. Ahora, creo que otro ejemplo que me viene a la mente, y que es incluso más extremo, es cuando estaba creando Menú Genen. Bueno, Menú Genen es esta idea en la que llegas a un restaurante y te dan un menú. Normalmente, no hay imágenes. Así que, no sé qué es ninguna de estas cosas ahí. Normalmente como el 30% de las cosas, no tengo ni idea de qué son.¡Ey! El 50%. Así que quería tomar una foto del menú del restaurante y obtener imágenes de cómo se verían esas cosas en un sentido genérico. Así que creé ACE. Codifiqué esta aplicación que básicamente te permite subir una foto y hace todo esto ACE. Y se ejecuta en Vercel y Chain ACE. Básicamente vuelve a renderizar el menú y te da todos los elementos y te da una imagen que utiliza un generador de imágenes para U. Básicamente ACE. Realizar un reconocimiento óptico de caracteres de todos los diferentes títulos es utilizar el generador de imágenes para obtener imágenes de ellos y luego mostrarte las y luego vi la versión 3.0 del software de esto que me dejó alucinado un que consiste literalmente en tomar una foto un dársela gemini y decirle que use nano banana para superponer los elementos en el menú y nano banana básicamente devolvió una imagen que es exactamente la imagen del menú que tome af pero en realidad puso en los píxeles que representaban las diferentes cosas en el menú y esto me dejó alucinado porque en realidad toda mi generación de menús es espiriforme. La app funciona con el viejo paradigma de que no debería existir. Y sí, el paradigma del software 3.0 es mucho más básico. Simplemente, uh, tu red neuronal está haciendo cada vez más trabajo. Y tu aviso o contexto es solo la imagen. Y la salida es una imagen y no hay necesidad de tener ninguna aplicación en medio. Así que creo que la gente tiene que replantearse, uh, ya sabes, no trabajar en el paradigma existente de lo que existía y simplemente pensar en ello como una aceleración de lo que existe. En realidad, es como si ahora hubiera cosas nuevas disponibles. Y volviendo a tu pregunta sobre programación, NN, ni siquiera creo que ese sea también un ejemplo de trabajar en la vieja mentalidad, porque no se trata solo de programar y de que la programación sea cada vez más rápida. Se trata de un procesamiento de información más general que ahora es automatizable. Bueno, no se trata solo de código. El código anterior funcionaba sobre datos estructurados, CUMA,¿cierto? Y escribes código sobre datos estructurados. Pero Ticeco, por ejemplo, ESI, con mi proyecto de base de conocimiento LLM, básicamente haces que los LLM creen wikis para tu organización o para a ti en persona, etc. Esto ni siquiera es un programa. Esto no es algo que pudiera existir antes porque no había código que creara una base de conocimiento basada en un montón de hechos. Pero ahora puedes tomar estos documentos y ORS, básicamente ALL, recompilarlos de una manera diferente y reordenarlos y crear algo nuevo e interesante como un replanteamiento de los datos. Y estas son cosas nuevas que no eran posibles. Y creo que esto es algo a lo que sigo intentando volver. No solo para saber qué podemos hacer que antes sea más rápido ahora. sino que creo que hay nuevas oportunidades de cosas que antes no eran posibles. Y casi creo que eso es más emocionante. Me encanta la progresión y la dicotomía del menú Genen que has expuesto, y creo que incluso estoy seguro de que muchas personas aquí siguieron tu propia progresión de programación desde octubre pasado hasta principios de enero o febrero de este año. Si extrapolas eso un poco más, Eid,¿cuál es el equivalente en 2026 para crear sitios web en la década de 2090?¿Crear aplicaciones móviles en la década de 2010?¿Crear SaaS en la última era de la nube, que parecerá completamente obvio en retrospectiva, que todavía no se haya creado en su mayor parte hoy en día. Bueno, siguiendo con el ejemplo del menú 1, supongo que gran parte de este código no debería existir, y es solo una red neuronal la que hace la mayor parte del trabajo. Creo que la extrapolación parece muy extraña porque básicamente podrías imaginar, y, no lo sé, y, sí, podrías imaginar computadoras completamente neuronales en cierto sentido, y, alimentas videos sin procesar, y, como imagino un dispositivo que toma videos o audio sin procesar en lo que es básicamente una red neuronal, y usa difusión para renderizar una interfaz de usuario que es como I, ya sabes, I, única para ese momento en cierto sentido, I, y siento que los primeros días de la computación I, en realidad I, la gente estaba un poco confundida en cuanto a si las computadoras se verían como calculadoras o las computadoras se verían como redes neuronales, enteres, y en los años 50 y 60 no estaba realmente obvio qué camino tomar, y ley, por supuesto, enter, tomamos el camino de la calculadora y terminamos construyendo computación clásica, y luego las redes neuronales se ejecutan actualmente virtualizadas en computadoras existentes, intertes, pero podrías imaginar interter Creo que mucho de esto cambiará y que la red neuronal se convertirá en algo así como el proceso host y las CPU se convertirán en algo así como el coprocesador enterti. Ya sabes, enterti y host. La inteligencia computacional va a tomar el control de las redes neuronales y se convertirá en el gasto dominante de flops.¡Pum! Así que podrías imaginar algo realmente extraño y extraño cuando las redes neuronales hacen la mayor parte del trabajo pesado. Están usando herramientas como OUF, ya sabes, un apéndice histórico para algunos tipos de tareas deterministas. Pero lo que realmente está dirigiendo el espectáculo son estas redes neuronales que, uh, de cierta manera, eh, eh, eh, Así que puedes imaginar algo extremadamente extraño como la extrapolación, pero creo que probablemente llegaremos allí poco a poco. Y no creo que esa progresión esté por determinarse true, diría yo. Me gustaría hablar un poco sobre este concepto de verificabilidad A, el hecho de que la IA automatizará más rápido y más fácilmente los dominios donde el resultado puede verificarse. Si ese marco es correcto, oleas, pero¿qué trabajo está a punto de avanzar mucho más rápido de lo que la gente cree?¿Y qué profesiones tenemos que la gente realmente cree que son seguras pero que en realidad no son? son altamente verificables. Sí. Así que pasé algún tiempo escribiendo sobre la verificabilidad y ACE. Básicamente, ACE. Las computadoras tradicionales pueden automatizar fácilmente lo que se puede especificar en el código y ACE, en cierto modo, ACE. Esta última ronda de LLM puede automatizar fácilmente lo que se puede verificar en cierto sentido porque la forma en que esto funciona es que cuando los laboratorios de vanguardia están entrenando estos LLM, estos son entornos de aprendizaje de refuerzo gigantes. Por lo tanto, host mods se les otorgan recompensas de verificación y luego, debido a la forma en que se entrenan estos modelos terminan básicamente progresando y creando estas entidades irregulares que realmente alcanzan su punto máximo en cuanto a capacidad en dominios verificables como matemáticas y código y adyacentes y se estancan y son un poco irregulares cuando las cosas no son como en ese espacio. Me parece que la razón de haber escrito sobre la verificabilidad es que procuro entender por qué resultan tan accidentadas. Y algo de esto tiene que ver con cómo los laboratorios entrenan los modelos U. Pero creo que algo de esto también tiene que ver con el enfoque de los laboratorios y lo que ponen en la distribución de datos. Porque algunas cosas son son básicamente mucho más valiosas en términos económicos y terminan creando más entornos porque los laboratorios querían trabajar en esos entornos. Así que creo que el código es un buen ejemplo de ello. Probablemente haya muchos entornos verificables en los que podrían pensar que no llegaron a incluirse porque simplemente no son tan útiles para tener la capacidad a su alrededor. Pero creo que para mí... El gran misterio es que el ejemplo favorito durante un tiempo fue cuántas letras hay en una fresa y los modelos solían equivocarse en esto y es un ejemplo de irregularidad. Los modelos ahora lo parchean, creo, pero el nuevo es que aquí quiero ir a un lavadero de coches, a lavar mi coche, y está a 50 metros.¿Debería ir en coche o debería caminar? Y los modelos de última generación de hoy en día te dirán que camines porque está muy cerca.¿Cómo es posible que la versión de vanguardia Opus 4.7 refactorice simultáneamente una base de código de 100,000 líneas o encuentre vulnerabilidades de día cero y en, aún así, un, me diga que vaya a este túnel de lavado? Esto es una locura. Y en la medida en que estos modelos sigan siendo irregulares, y es una indicación de que, oh, En primer lugar, y, quizá algo no va bien, o un. En segundo lugar, y, de que tienes que estar un poco al tanto y tratarlos como herramientas, un, y tienes que mantenerte al tanto de lo que hacen. Así que creo que, en resumen, y, todo lo que he escrito sobre la verificabilidad es simplemente intentar entender por qué estas cosas están estropeadas.¿Hay algún patrón en ello? Y creo que es una especie de combinación de verificabilidad más atención de los laboratorios. Quizás otra anécdota instructiva es que, y, de GPT 3.5 a GPT 4, la gente notó que el ajedrez mejoró mucho. Y creo que mucha gente pensó, bueno, oh, es solo una progresión de las capacidades, y, pero en realidad es más que, y. Creo que esta es información pública. Creo que lo vi en internet. Una gran cantidad de datos de ajedrez se incluyeron en el conjunto de pre-entrenamiento y, oh, simplemente porque están en una distribución de datos, wow, básicamente el modelo mejoró mucho más de lo que lo haría de forma predeterminada. Entonces, alguien en OpenAI decidió agregar estos datos y ahora tienes una capacidad que acaba de alcanzar un pico mucho mayor. Y por eso creo que estoy enfatizando esta dimensión font, ya que Estamos un poco a merced de lo que hagan los laboratorios FOD, de lo que sea que pongan en la mezcla. Y tienes que explorar realmente esta cosa que te dan que no tiene manual y funciona en ciertos entornos, pero tal vez no en otros. Y tienes que explorarla un poco. Y si estás en los circuitos que formaban parte del RL, vuelas. Y si estás en los circuitos que están fuera de la distribución de datos, vas a tener dificultades. Y tienes que averiguar en qué circuitos estás en tu aplicación. Y si no estás en los circuitos, entonces tienes que considerar realmente el ajuste fino y hacer parte de tu propio trabajo porque no necesariamente saldrá del LM inmediato. Me encantaría volver al concepto de inteligencia irregular en un momento. Si hoy eres un fundador y estás pensando en crear una empresa, estás tratando de resolver un problema que crees que es manejable y algo que es un dominio verificable. Y, pero miras a tu alrededor y piensas, oh, Dios mío, ve. Bueno, los laboratorios realmente han comenzado a obtener velocidad de escape, los que parecen más obvios. Oye, matemáticas, codificación y otros,¡ven!¿Qué consejo le darías a los fundadores del público? Bueno, en mi cosnats creo que eso nos lleva a la pregunta anterior de que creo que la verificabilidad en...¿Por qué?¡Oh, déjame pensar! La verificabilidad hace que algo sea manejable en el paradigma actual, porque puedes aplicarle una gran cantidad de aprendizaje automático. Bueno, una forma de verlo, es que eso sigue siendo cierto incluso si los laboratorios no se centran en ello directamente. Por lo tanto, y si estás en un entorno verificable en el que podrías crear estos entornos o ejemplos de aprendizaje automático, y eso te prepara para hacer tus propios ajustes y podrías beneficiarte de ello, pero esa es fundamentalmente una tecnología que simplemente funciona. Puedes accionar una palanca si tienes una gran cantidad de conjuntos de datos diversos de entornos de aprendizaje automático, etc. Puedes usar tu marco de ajuste favorito y accionar la palanca y obtener algo que realmente funcione bastante bien. No sé cuáles podrían ser los ejemplos de esto. Bueno, pero creo que hay algunos entornos de aprendizaje por refuerzo muy valiosos en los que la gente podría pensar y que creo que no forman parte de, sí, eh, no quiero revelar la respuesta, y eh, pero hay un dominio que creo que es muy, oh, vale, lo siento, oh, no quiero hacer una publicación exagerada en el escenario, pero hay algunos ejemplos de esto. Por otro lado, un,¿qué crees que todavía se puede automatizar solo a distancia? Creo que, en última instancia, y, casi todo se puede hacer verificable hasta cierto punto. Algunas cosas son más fáciles que otras. Piénsalo, Sozis, por Porque incluso para tareas como la escritura, o similares, ITSE, sería posible contar con un consejo de jueces LLM Team. Y de esa forma obtener resultados razonables con este método. Así que se trata más de lo que es fácil o difícil. Así que creo que, en última instancia, creo que todo es automatizable. Increíble. Vale. Bueno, el año pasado acuñaste el término codificación de vibración. Y hoy estamos en un mundo que parece un poco más serio. Más ingeniería regente.¿Cuál crees? que es la diferencia entre ambos y cómo llamarías a lo que estamos viviendo hoy en día. Sí. Yo diría que la codificación de vibración consiste en elevar el nivel de competencia de todos en cuanto a lo que pueden hacer en el software. Por lo tanto, todos pueden codificar con entusiasmo cualquier cosa. Es asombroso e increíble. Pero yo diría que la ingeniería gentica consiste en preservar el listón de calidad que existía antes en el software profesional. Por lo tanto, y no se te permite introducir vulnerabilidades debido a la codificación VIP. Sigues siendo responsable de tu software como antes, Ebi. Pero, oh, puedes ir más rápido y el spoiler es que puedes hacer hacerlo OI, pero EI es cómo lo haces correctamente. Así que para mí, EI, cuando la llamo ingeniería agéntica, EI, creo que es como una disciplina de ingeniería. Tienes estos agentes que son como entidades puntiagudas. Son un poco fábulas ICIELI, un poco estoicas ICIE, pero son extremadamente poderosas.¿Cómo las coordinas para que vayan más rápido sin sacrificar tu nivel de calidad y hacerlo bien y correctamente? Es el ámbito de la ingeniería agéntica. Así que las veo diferentes. Una trata de elevar el límite y la otra de extrapolar Lo que veo es que hay un techo muy alto en la capacidad de la ingeniería gentica. La gente solía hablar del ingeniero 10X antes. Creo que esto se magnifica mucho más. 10X no es la velocidad que ganas. Y creo que me parece que las personas que son muy buenas en esto alcanzan un pico mucho mayor que 10X AME desde mi perspectiva actual. Me gusta mucho ese planteamiento. Una cosa que Sam Allman dijo el año pasado cuando llegó a fue que las personas de diferentes generaciones usan el chat de manera diferente. Entonces, en Tina, si tienes 30 años y te lo usas como un reemplazo de búsqueda de Google, pero si eres adolescente o tu puerta de entrada a Internet es trágica.¿Cuál es el paralelismo aquí en la codificación actual? Si viéramos a dos personas codificar usando Open Cloud, Cloud Code, CodeDX, uno lo considerarías mediocre y el otro completamente nativo de IA.¿Cómo describirías la diferencia? Quiero decir, Ir, creo que se trata... simplemente de intentar aprovechar al máximo las herramientas disponibles utilizando todas sus funciones e invirtiendo en tu propia configuración. Así que, EI, al igual que antes EI, todos los ingenieros estaban acostumbrados a aprovechar al máximo las herramientas que usaban EI, ya sea Vim o Westgold EI, o ahora es Clothcode o Codec EI, etc. Así que simplemente invierten en su configuración y utilizan muchas de las herramientas que tienen a su disposición. Y creo que se parece a eso. Creo que Eros Casariente Un pensamiento relacionado es que mucha gente está contratando para esto porque quieren contratar ingenieros agentes fuertes. Creo que lo que estoy viendo es que, eh, ya sabes, la mayoría de la gente todavía no ha refactorizado su proceso de contratación para una capacidad de ingeniero agente ESCO como si estuvieras dando acertijos para resolver, y este sigue siendo el viejo paradigma. Eh, yo diría que la contratación tiene que ser como darme un proyecto realmente grande y ver a alguien implementar ese gran proyecto como ESCO. escribir un clon de Twitter para agentes y luego hacerlo realmente bueno, y hacerlo realmente seguro. Y luego hacer que algunos agentes simulen alguna actividad en este Twitter. Y luego voy a usar 10 codecs 5.4 OKEx para X alto para intentar romper tu Waze, romper tu Waze, romper este sitio web que implementaste. Y van a intentar romperlo básicamente y no deberían poder romperlo básicamente. Y no deberían poder romperlo. Y entonces quizás se vea así, ah,¿verdad? Y sí, observar a la gente en ese entorno y construir proyectos más grandes y utilizar las herramientas es quizá lo que más me interesaría y a medida que los agentes hacen más y qué habilidad humana crees que se vuelve más valiosa y no menos bueno si es una buena pregunta creo que y bueno este ahora mismo la respuesta es que los agentes son como entidades internas y así que es destacable que y básicamente y sigas estando a cargo de la estética y el juicio y el gusto y un poco de supervisión quizás uno de mis ejemplos favoritos de la rareza de los agentes es que, un, para menujen en un, te registras con una cuenta de Google Un, pero compras créditos usando una cuenta de Stripe, y ambas tienen direcciones de correo electrónico. Mi agente intentó ACE, básicamente ACE, cuando compras créditos ACE, asignarlos usando la dirección de correo electrónico de Stripe a la dirección de correo electrónico de Google ACE, como si no hubiera un ID de usuario persistente. Para las personas ASU, estaba intentando hacer coincidir las direcciones de correo electrónico ASU, pero podrías usar direcciones de correo electrónico diferentes para Stripe y Google. Y Ishu, básicamente Ishu, no asociaría los fondos. Así que este es el tipo de cosas en las que estos agentes seguirán cometiendo errores.¿Cómo?¿Por qué usarías direcciones de correo electrónico para intentar relacionar los fondos? Pueden ser arbitrarias. Puedes usar diferentes correos electrónicos, etc. Es algo muy raro de hacer. En conclusión, pienso que se necesita gente para esta especificación y este plan. Y te, en realidad, te y mí, ni siquiera me gusta el modo de planificación. Quiero decir, Idisu, obviamente, Ishe, es muy útil, Ishe, pero creo que hay algo más general aquí en el que tienes que trabajar con tu agente para diseñar una especificación que sea muy detallada y que sea básicamente la documentación, y luego hacer que los agentes la escriban. Y tú estás a cargo de la supervisión y de las categorías de nivel superior la E. Pero los agentes hacen gran parte del trabajo en segundo plano. Y on-na-ba, por tanto, on-ter, di-si-ha-ga-hu-pi-hin-do-al-lu-sun-su-ab-ban-bi-si por algunos de los detalles. Por ejemplo, E. También con matrices o tensores en redes neuronales. Hay un montón de detalles entre PyTorch y NumPy y todos los diferentes In como Pandasys, etc. Para todos los pequeños detalles de la API. Y ya me olvidé de mantener las dimensiones frente a mantener la dimensión, o si es dimensión o eje o remodelar o permutar o transponer. Ya no recuerdo exactamente estas cosas,¿verdad? Porque no tienes por qué hacerlo. Este es el tipo de detalles que maneja el interno porque tiene muy buena memoria SIL. Pero aún tienes que saber L, por ejemplo, L, por ejemplo, L si hay un tensor subyacente. Hay una vista subyacente y luego puedes manipular la vista del mismo almacenamiento o puedes tener un almacenamiento diferente L, por lo que aún tienes que comprender lo que hace este material y algunos de los fundamentos para no copiar memoria innecesariamente L, etc. Pero los detalles de la SAPI ahora se transfieren L, por lo que estás a cargo del gusto L. La ingeniería ingeniería shell. El diseño. Y que tiene sentido. Y que estás pidiendo las cosas correctas y que estás diciendo que está bien, ores, que estos tienen que ser ID de usuario únicos a los que vamos a vincular todo, ores. Por lo que estás haciendo parte del diseño y el desarrollo y los ingenieros están completando los espacios en blanco. Y ahí es donde estamos actualmente. Y creo que eso es lo que todos, por supuesto, ores, están viendo. Creo que ahora mismo,¿crees que hay una posibilidad?¿Que este gusto y juicio importan menos con el tiempo o el techo seguirá subiendo? Sí, es una buena pregunta¡Gracias! Bueno. Espero que mejore. Creo que probablemente la razón por la que no mejora ahora mismo es que no forma parte del aprendizaje a largo plazo. Probablemente no haya ningún coste estético ni recompensa, eh, o que no sea lo suficientemente bueno o algo así. Sí. Pienso que al revisar el código I, a veces me entra un ataque de ansiedad, porque no es un código especialmente brillante I, sino todo lo contrario. Es muy voluminoso. Es muy voluminoso. Repleto de código copiado y pegado. I. Con abstracciones poco intuitivas y frágiles. I. Aunque funciona, I. Resulta realmente desagradable. Espero Espero que esto pueda mejorar en modelos futuros. Un buen ejemplo también es este proyecto micro GPT, ERI, en el que intentaba simplificar la formación LLM para que fuera lo más sencilla posible. Los modelos odian esto. No pueden hacerlo. Intenté y le seguí intentando incitar a un LLM a simplificar más y, simplificar más y, y simplemente no puede sentir que estás fuera de los circuitos del aprendizaje permanente. Es como si obviamente estuviera sacando dientes. No es como la velocidad de la luz. De modo que sí, ahí, pienso que la gente sigue estando a cargo de esto. No obstante, y sí creo que no hay ningún obstáculo fundamental que lo impida. Es solo que los laboratorios aún no lo han hecho. Sí. Así que me encantaría volver a esta idea de formas irregulares de inteligencia. Escribiste un poco sobre esto con un artículo muy estimulante sobre animales versus fantasmas. La idea es que no estamos construyendo animales. Estamos invocando fantasmas. Estas son formas irregulares de inteligencia que están moldeadas por datos y funciones de recompensa. Pero no por motivación intrínseca. Diversión. curiosidad o empoderamiento. Cosas que surgieron a través de la evolución.¿Por qué importa ese encuadre y qué cambia realmente en la forma en que construyes, implementas, evalúas o incluso confías en ellas? Sí. Y sí, creo que la razón por la que escribí sobre esto es porque estoy tratando de entender qué son estas cosas.¿Y su verdad? Porque si tienes un buen modelo de lo que son o no son U, entonces serás más competente a la hora de usarlas. Y creo que no sé si tiene... No estoy seguro de si realmente tiene un poder real. Creo que es un poco filosofar. Eh... Pero... Creo que se trata simplemente de aceptar la realidad. Estas cosas no son Wii, como podrías decir Wii, inteligencias animales, es decir, IS. Si les gritas IS, no van a funcionar mejor o peor, o no van a tener ningún impacto. Y todo es como estos circuitos de simulación estadística donde el sustrato es un pre-entrenamiento UN, como las estadísticas UN, pero luego está el RL atornillado por encima. Entonces, en cierto modo, en SAT aumentan las dispensas y en SAT, bueno, quizás sea simplemente una forma de pensar sobre lo que estoy viviendo o lo que es probable que funcione o no, en SADS o cómo modificarlo. Pero en realidad Easteng, no sé si tengo I, como Eastengs, estos son los cinco resultados obvios de cómo mejorar tu sistema. Es más bien desconfiar de él y, bueno, averiguarlo con el tiempo.

SPEAKER_02

Ahí es donde empieza. Bueno, estás muy metido en el trabajo con agentes que no solo chatean, tienen permisos reales, tienen contexto local, de hecho, actúan en tu nombre.¿Cómo será el mundo cuando todos empecemos a vivir

SPEAKER_03

en él? Pues sí. Hey, pienso que muchos de ustedes estarán emocionados por conocer el aspecto de este entorno de agentes nativo. Hey, y que eso implica la necesidad de reescribir todo. Todo sigue estando escrito fundamentalmente para humanos y tiene que moverse. Sigo usando la mayoría de las veces que utilizo diferentes marcos o bibliotecas o cosas así en todavía tienen documentos que están escritos fundamentalmente para humanos. Esta es mi manía favorita. Como si no,¿por qué la gente sigue diciéndome qué hacer? Como si no quisiera a hacer nada.¿Qué es lo que debería copiar y pegar en mi agente? Digamos que et. Cada vez que me dicen et,¿entiendes? Que vaya una URL o algo así, et. Es como et. Ya sabes, la misma historia. Así que creo que todo el mundo está entusiasmado con cómo descomponemos las cargas de trabajo que deben ocurrir en sensores y actuadores en todo el mundo.¿Cómo lo hacemos nativo para el agente? Básicamente, em. Primero se lo describimos a los agentes. Y luego tenemos mucha automatización en torno a las estructuras de datos que que son muy legibles para los LLM. Bueno, ah, creo que sí. Espero que haya mucha infraestructura de agente primero por ahí. Y que, hitar, como ya sabes, menugen ura, cuando escribí la entrada del blog sobre menugen un, gran parte del trabajo un, gran parte del problema un, ni siquiera fue escribir el código para menugen un, fue implementarlo en Vercel porque tenía que trabajar con todos estos servicios diferentes y tenía que encadenarlos y tenía que ir a sus ajustes y menús y un, ya sabes, configurar mi DNS y era muy molesto un, así que ese es un buen ejemplo de que espero que Menuhin pueda dar un aviso a un LLM Build Menuhin y luego no tenga que tocar nada y se implemente de la misma manera en internet. Creo que sería una buena prueba para saber si gran parte de nuestra infraestructura se está volviendo cada vez más nativa de agentes.¿Y si está Prashen en última instancia? Y diría que sí. Y Dilima, creo que nos dirigimos hacia un mundo en el que habrá representación de agentes para las personas y las organizaciones. Y Dilima, ale, que mi agente hable con el tuyo para resolver algunos detalles de nuestras reuniones o cosas así. Así que creo que más o menos hacia ahí es hacia donde van las cosas, Kato, pero sí. Uh, creo que todos aquí están entusiasmados con eso. Me gusta mucho la analogía visual de los sensores y los actuadores. La verdad es que no había pensado en eso. Es muy interesante, Onki,¿verdad? Vale. Eteri, creo que tenemos que terminar con una pregunta sobre educación, porque probablemente seas uno de los mejores del mundo a la hora de simplificar conceptos técnicos complejos y de reflexionar profundamente sobre cómo diseñamos la educación en torno a ellos.¿Qué sigue mereciendo siendo la pena aprender en profundidad cuando la inteligencia se vuelve barata, a medida que avanzamos hacia la próxima era de la IA. Sí. Hubo un tweet que me dejó alucinado hace poco y sigo pensando en él como cada dos días. Era algo así como que puedes externalizar tu pensamiento, él, pero no puedes externalizar tu comprensión.

SPEAKER_04

Y... Creo que eso está muy bien dicho. Sí, porque sigo siendo parte del sistema y de alguna manera la información tiene que llegar a mi cerebro y siento que me estoy convirtiendo en un cuello de botella para saber qué estamos tratando de construir, por qué vale la pena hacerlo, cómo dirijo a mis agentes, etc. Así que sigo pensando que, ore, en última instancia, ore, algo tiene hay que dirigir el pensamiento y el procesamiento etcétera y eso sigue estando limitado de alguna manera por la comprensión y esta es una de las razones por las que también estaba muy entusiasmado con todas las bases de conocimiento de lm porque siento que es una forma de procesar la información y cada vez que veo una proyección diferente sobre la información y siento que gano conocimiento así que en realidad son muchas indicaciones para que genere datos sintéticos sobre datos fijos bueno es realmente disfruto y cada vez que leo un artículo os tengo mi wiki que se está construyendo a partir de estos artículos y me encanta hacer preguntas sobre cosas o OSH. Bueno, IS creo que IS, en última instancia, IS. Estas son herramientas para mejorar la comprensión de cierta manera y esto sigue siendo como un cuello de botella porque entonces no puedes dirigir SOAP, no puedes ser un buen director si sigues IS, porque los LM ciertamente no destacan en la comprensión IS. Sigue siendo el único responsable de eso. Así que, eh, sí, creo que las herramientas para ese efecto son increíblemente interesantes y emocionantes.

SPEAKER_03

Estoy emocionado de volver aquí en un par de años y ver si nos han Bueno. Otra charla magistral de Andrea

SPEAKER_05

Carpati. A este hombre habría que ponerle un monumento porque es verdad que es tremendo. Vamos a explicar, debatir, desglosar lo que es la charla. Y aportar mi visión e ideas al respecto. También experiencia y conocimiento. No a la altura del maestro Carpati, que la verdad es que es un auténtico crack, como decís aquí, va a otra velocidad. Pero bueno, vamos a intentar aportar algo de valor. Y analizar también la charla. empiezan preguntándole sobre un post que hizo en X en la que comentaba que se sentía atrasado como programador y bueno, es una sensación que yo creo que quien no la tenga es que no está probando o viviendo o desarrollando con la última tecnología de inteligencia artificial con IA Gentica o las últimas herramientas el que se sienta que puede ir al día no lo sé cómo lo hace, que me escriba pero sí es las sensaciones que desde diciembre, pues, la sensación ya no es de copilotaje, es, oye, la IA lo hace todo bien, o casi todo bien, y puede desarrollar software solo a un nivel,¿no? No hablamos al 100%, en todos los casos, pero sí que hubo un cambio tremendo con los nuevos modelos y con las nuevas herramientas,¿no? A partir de diciembre, luego sí en febrero, etc. En definitiva, que los agentes ya permitían el el desarrollo de código, la ingeniería de software, de forma coherente o de una forma que ya las empresas, los desarrolladores, confiaban, delegaban, apostaban ya al 100% en este tipo de sistemas y entendían la evolución.¿Qué tiempos aquellos en que programadores se revelaban, yo lo diría, en primera persona diciendo que no iban a programar nunca con IA? Bueno, ahora es que no van a programar con IA, van a programar la IA. Esto es lo que tiene también, no tiene mérito ni la percepción ni la anticipación de ese mundo, pero es como mínimo curioso.¿En qué más cosas nos pasarán referentes al tema de la inteligencia artificial? Que dogmatizamos muchas cosas y la realidad nos va a dar una hostia importante. Habla Andrés Carpati de tener, bueno, no sé si ha dicho mil, ha dicho proyectos paralelos infinitos. Yo es algo que quiero también probar algunos proyectos que tengo en mente, ponerlos en paralelo, pero como está el tema de los tokens y el tema de la disponibilidad, pero sí, hoy en día no es que puedas hacer más y más rápido, sino puedes hacer cosas que no podías hacer antes, porque no sabías, porque no llegabas, porque no tenías el personal,¿no?

UNKNOWN

Eh... Reper... A ver, un segundo, que te he puesto aquí, reper...

SPEAKER_05

no me acuerdo lo que pone aquí bueno, habla del software 1.0 que era el código, el software 2.0 datos y redes neuronales, aprendizaje profundo principalmente y software 3.0 programación con PROM, con indicadores con indicaciones en inglés con la importancia del contexto del conocimiento como input en definitiva, bueno y también entendiendo que el software 3.0, lo comentó en otra charla puede ser que tenga la integración del 1.0 y el 2.0 En el sentido de que se integre con soluciones híbridas. Habla de su instalación de Open Cloud y cómo, en definitiva, al final... la experiencia de querer, de ir a un nuevo paradigma con Open Cloud y querer intervenir en todos estos script shells, como dice él, y participar de lo que hay debajo,¿no? Pero no tiene sentido,¿no? No tiene sentido. No tiene sentido y entonces uno ve como la carrera o se ha terminado un paradigma y empieza uno nuevo y cuando prueba nuevo software, pues es como a veces lo piensa desde el antiguo paradigma,¿no? Y es un poco, da un poco de vértigo, da un poco de miedo también de de pasión ante la nueva era, pero sí que es verdad que los que somos veteranos es una sensación pues bueno agridulce agridulce tiene una aplicación, habla de una aplicación que tiene que es sobre la generación de un menú de restaurantes que básicamente a partir de una foto del menú es capaz de hacer, bueno en las versiones siguientes con nano banana la recreación de lo que es cada uno de los componentes del menú,¿no? Que no lleva foto,¿no? Entonces, bueno, le pasas una foto del menú y te hace un nuevo menú hecho con IA y nano banana espectacular,¿no? Está francamente bien. La primera versión parece que estaba paicodeado, pero luego ya las versiones sucesivas sí que estuvieron hechas directamente con IA y es lo que habla. Este concepto me gusta mucho,¿no? Fijaos lo que dice porque es importante entenderlo. De una imagen que yo le proporciono, me genera otra imagen que es la imagen del menú hecha. No hay software por medio, hay una IA. No hay código, no hay programación. Imagen input, imagen output. Esto vuela la cabeza. Esto vuela la cabeza. Porque es entender a dónde vamos. En definitiva, una aceleración a un nuevo paradigma, llámese software 3.0, ingeniería génica. Me gustan tanto el concepto de software 3.0 como ingeniería génica, mucho más que bytecoding. Que bueno, entiendo que ahora todos eran ingenieros agénticos, como fueron ByteCoding, todos eran, codeaban y desarrollaban software y bueno, la verdad es que yo creo que va a haber una selección respecto a quién desarrolla en determinadas cosas y cómo,¿no? No lo sé, o se democratice tanto el desarrollo de software que se termine, pero yo creo que no, yo creo que no, yo creo que habrán como categoría en algún sentido no lo sé, a lo mejor llega un momento que la inteligencia artificial y el software no es necesario porque todo aquello que necesitamos o pedimos se nos concede o es hecho no por humanos sino por inteligencias artificiales quizás sea el software 4.0 pero bueno, aún no estamos ahí seguro que vamos a ese nivel la visión del desarrollo de software si queréis saber qué es lo que pienso, hacia dónde va Podéis buscar un episodio que hicimos, DebsX1, en el canal. Y ahí hace años... Precha GPT, creo. Ya comentábamos al respecto cuál es el futuro lejano. Y estamos acertando, estamos acertando. Bueno, una cosa que dije yo es que no habría lenguajes de programación, cosa que ni siquiera el inglés, obviamente. Y tampoco código intermedio generado por la máquina.¿Para qué tiene que haber código? No lo habrá, ya esto lo decía también Elon Musk,¿no? Con X ahí en una charla de X ahí. Se ve lejano, se ve lejano, pero no. Bueno, ha hablado de su proyecto de... de LLM Wiki que es con todo esto la utilización de Obsidian no sé si lo habéis visto espero que sí porque vamos esto no es que sea viejo porque es reciente pero vamos ha sido tendencia este proyecto de GitHub donde bueno hace una ingesta de datos a un micro bowl de Obsidian y hace bueno una visualización de la información hacia de sus docs a Markdown en Obsidian y hace un gráfico grafo de conocimiento, luego esa base de conocimiento es consultable por los modelos de lenguaje, etc. Muy interesante, si no lo conocéis o lo habéis visto. Aquí tenéis un poco las directrices de Garpati en su GitHub, pero hay... personas que ya han hecho esta implementación. Es una de las cosas que quiero hacer como píldoras dentro de formación academia que también estamos moviendo. En temas de formación vamos a anunciar algo seguramente pronto, no sé si esta semana o la que viene, pero algo vamos a hacer y una de las píldoras es esa, implementar lo que hace Carpati a nivel con Obsidian y luego hacerlo sencillito porque la gente, bueno, hay canales que también lo han compartido, lo podéis buscar, pero bueno, que lo hiciéramos nosotros de una forma totalmente práctica, enfocado a que la gente lo pueda utilizar y conocer, pues sería interesante. Sí que estoy de acuerdo con él en una cosa que además dice que son muy buenas y que hay que integrarlas en nuestro lenguaje diario. que la inteligencia artificial o estos sistemas, ingeniería genética, lo importante no es la aceleración que produce la independencia del humano o la menor dependencia del humano, sino que hace cosas que no son posibles. Podemos pensar que mejora muchas cosas que ya conocemos, pero lo importante es cuando va más allá, cuando hace cosas que no sería posible hacerlas o haber pensado en desarrollarlas si no tuviéramos esta tecnología. Y eso es lo importante, porque no hablamos de aceleración hablamos de disrupción, hablamos de posibilidades. cuando uno piensa y habla de las posibilidades infinitas que tenemos delante,¿por qué no vemos esas posibilidades infinitas impactar en el mundo? Ese es uno de los objetivos de X-Habay, que voy a hacer autocrítica, que se han quedado en el tintero, que es, oye, X-Habay tendría que ser capaz, a ver, desde nuestra humildad, pero también desde nuestra visión de grandeza de poder impactar en... Que el mundo sea mejor. No solo nosotros, sino todo el mundo. Es otro debate,¿no? Pero sí que es cierto que las posibilidades, herramientas, tecnologías, cada vez más accesibles. Cuidado con el tema de los recursos. La cadena de suministro de la IA a la que nos vamos a ver sometidos para poder hacer todo este tipo de cosas. Sí, cuando uno piensa, como dicen, sobre... crear webs, crear apps, crear software como servicio. Es lo que me he dedicado toda la vida.

UNKNOWN

Eh...

SPEAKER_05

Cuando uno reflexiona sobre esto y mira atrás, parece que esté mirando a la época medieval. Estoy todos reinventándonos, adaptándonos, evolucionando. Y bueno, desde un punto de vista híbrido, puro, quien empieza de cero, quien lleva toda la vida en esto, no sé. Depende del tipo de soluciones, si son nuevas, si es... siempre costará menos si es nuevo,¿no? Pero el paradigma cuando uno piensa en todo esto de crear una web,¿cuántas empresas han creado? Creamos webs, creamos apps, creamos software con servicio. El enfoque o el modelo de negocio también se ha transformado,¿no? Esta semana haremos un programa sobre empresas de un único hombre. Lo del hombre que alguno me ha preguntado si es mujer o humano. A ver, es que en el paper pone hombre, pero bueno, el lo he mantenido por eso, no pasa nada, que no seáis tan tiquismiquis, se entiende que es de cualquier género, obviamente. Pero bueno, empresas de un solo, de una sola persona u hombre, o empleado, que sean unicornio,¿no? Pero obviamente serán un tipo de empresas dentro del nuevo ecosistema de la economía génica,¿no? Es obvio,¿no? Habla de algo de lo que ya hemos hablado y anticipamos en que es sobre lo de las computadoras neuronales transformar la computación a cerebros o a redes neuronales o a entidades de tal manera que no que por ejemplo no generemos interface de usuario tú pides y dice el paper es facha bueno es que si pone eso que hacemos lo traducimos como gilipollas pongo lo que es y esto pero bueno pero si está bien la gracia un paper facha vamos a tener programas, bueno, del paper y del concepto en general, y van a haber mujeres, creo que estará Sara y no sé si Beatriz Ballina también no sé, pero sí, vamos esta tarde me han dejado solo invitaré a alguien a ver si quiere venir, pero vamos como es un artículo de la niebla dicen esto que será, todo lo que sean titulares un poco más misteriosos pero bueno, para el del espiralismo que será el jueves, no, el miércoles sí que hay, bueno, está a tope tenemos tres debates, estas semana y el de hoy lunes va a ser debate pues solo dice una cosa interesante de estas que se le quedan a uno que es oye, lo que os estaba hablando vamos a hacer una era de computadoras neuronales, incluso se habla de un sistema operativo agéntico y Y aquí dice una cosa donde todo estaría pregenerado. Hay algún concepto al respecto en Google y en algún vídeo que hemos puesto sobre el CEO de Lambda, si os acordáis. Yo creo que es de los pioneros que comentó este concepto, aunque aseguro que alguien lo había comentado previamente, pero bueno, yo lo vi ahí. Dice una cosa interesante, dice, habían dos caminos, el de la calculadora y el de las redes neuronales. Apostamos por el de la calculadora, pero nos hemos dado cuenta que no, que el camino es el de las redes neuronales y seguramente así sean la base de la competencia Es decir, quizá la realidad, el universo, la simulación sea una red neuronal, todos conectados. Pero es obvio, el software no será tal como lo conocemos y es obvio que el humano no picará código como una gallina. Muchos viven, han vivido, yo me incluyo de ello, pero las cosas cambian. La era de la inteligencia artificial sí va a sustituirnos, pero obviamente también nos dará otros propósitos. propósitos, trabajos y retos. No sé si infinitos como en un post que he leído, del que no estoy totalmente de acuerdo, pero bueno, yo creo que nos quedan misiones para rato, sobre todo para aquellos que buscan la renta básica universal que lleguen,¿no? Poco a poco. Bueno, ese concepto de ordenador o computadora neuronal, que sabéis que también hay un paper de Jürgen Schmidhuber publicado de las computadoras neuronales, la Si puedo la hago en InsideX, no sé si esta semana o la que viene, pero es un paper súper interesante. Pero bueno, dice Carpazzi que poco a poco,¿vale? Que es verdad que esto poco a poco. Habla un concepto también muy interesante, que es el de la verificabilidad. Esto lo hemos hablado también en varios programas y es, obviamente, todo el tema génetico y de redes neuronales, desde su concepción estocástica y con la base y mejora de aprendizaje con refuerzo, todo aquello que sea verificable, ese... va a ser mucho más fácil que avance a una velocidad increíble es decir, esto ya se comentaba por Demis Hassabis con Alpha Evolve y lo vuelvo a remarcar Carpazzi, obviamente si todo lo que tenga que ver con código o todo lo que tenga que ver con matemáticas y adyacentes está en ese conjunto de ciencias, de técnicas de dominios esa es la palabra, de dominios donde se puede tener una gran evolución, porque ahí podemos producir iteración, podemos producir mejora, podemos producir validación, verificabilidad,¿de acuerdo? Si no son verificables, dice peor,¿no? Y entonces habla aquí lo que os ha hecho tanta gracia de, bueno, el misterio de las LLM es que era¿cuántos vídeos los influencers?¿Cuántas R's tiene Strawberry de fresa,¿no? La cuestión es no entender la naturaleza de esto, pero bueno, ahora el Opus 4.7 resulta que es capaz como dice, el refactorizarte un repositorio de 100 millones de líneas o de 100.000 líneas y luego le preguntas algo lógico como lo que habéis comentado lo que comenta del parking una cuestión básica de razonamiento y no es capaz de entenderlo¿por qué? bueno, ahí entraría seguramente Jan Lecun con su modelo del mundo¿qué es lo que falta? y ahí estoy, estoy Esto lo que nos hace ver la naturaleza de esto, en el momento en el que estamos, es que hay que estar al tanto, hay que estar pendientes. No son infalibles. les falta algo, pero eso no significa que no puedan utilizarse, y menos en contextos como lo que hemos dicho, en dominios verificables. Como él dice,¿hay algún fallo?¿Por qué?¿Tienen ese fallo por cómo se entrenan? Ahí hace una crítica a los datos que introducen, el patrón, si hay algún tipo de patrón. Y pone el caso del ajedrez, de esa mejora que hubo en GPT-4 a partir de introducir datos de partidas de ajedrez, Pero bueno, son modelos de inteligencia irregular, como él dice, por el tema de la verificabilidad sí que podemos apostar y desde ese punto de la verificabilidad y el apoyo en la aprendizaje por refuerzo es por el que, bueno, la mejora en los modelos obviamente que hemos llegado a que en determinados dominios como código, matemáticas, etcétera, se pueda avanzar a los niveles que estamos comprobando y viendo. Bueno, luego él hace una reflexión que dice... Bueno, en definitiva, yo creo que esto de dividir... Dice esto de dividir... lo que es dominios verificables y no verificables es bueno es es cuestionable porque él dice que al final todo es verificable hasta cierto punto¿no? porque si no es verificable desde un punto de vista de un dominio concreto que podamos verificar lo podríamos llevar a un concilio de LLM que es otro proyecto que tiene el señor Carpazzi que si no lo habéis visto lo pongo aquí porque este sí que es este sí que me parece súper interesante y a ver un segundo segundo carpaccio. Este de aquí,¿vale? Lo voy a poner si no lo conocéis. Pero bueno, quien siga, quien esté conectado al mundillo lo tiene que conocer sí o sí. Pero si no, pues lo ponemos aquí. Lo tenéis ahí, lo buscáis. El concilio del LMS,¿vale? Que básicamente, bueno, lo que consiste es que varios agentes poder validar su respuesta a partir de varios agentes,¿no? Distintos,¿no? Anthropic, de X a Y, de Gemini y ahí a partir de ese filtro o concilio la verdad es que las mejoras de efectividad en dominios no verificables pues aumentan muchísimo de tal manera que como dice Carpazzi pues todo es verificable o todo es verificable porque es verificable y lo que no es verificable casi lo es porque es muy efectivo el trasladar un criterio o crítica por parte de un concilio de LLM¿no? En definitiva, hemos pasado del bycoding, de los bycoding bros que me tienen hasta el gorro, de ahí lo de ZHub, ahí pasamos a la ingeniería genética. A un tema de ingeniería, porque sí, yo no creo que todo el mundo desarrolle software y aunque se convierta en una commodity en determinados aspectos al desarrollo de software, hay cosas que quedan a un nivel de ingeniería. Que desaparecerá el desarrollo de software en un futuro y será a Algo integrado a otro nivel. Seguramente, no seguro. no habrá programas ni programación. Habrá comunicación o interacción con las redes, con las superinteligencias, con las mentes colmenas o con el universo. No lo sabemos. No vamos a desvariar o reflexionar o tomar el cohete ahora desde ese punto. Pero lo que dice, dice una cosa que yo estoy totalmente de acuerdo. No creo que el aumento de velocidad sea 10x. Se queda en corto. Es un cambio de paradigma, no es un 10x. Es es un cero contra velocidad infinita, entre comillas, de la que solo depende la evolución de los modelos y los recursos a los que tengas acceso. Bueno, también por pasta, obviamente. Depende la pasta que puedas tener. Dice que habla sobre el tema de las contrataciones,¿no? Habla sobre el tema de las contrataciones. En el tema de las contrataciones aquí hay una serie de, aquí hay una paranoia y una paja mental importante. Claro que van a haber más contrataciones de ingenieros de software o de desarrolladores, pero yo creo que va a ser temporal porque muchas empresas que tienen que entrar en la nueva era o empresas nuevas, les va a costar muchísimo encontrar ingenieros de software para adaptar sus nuevos sistemas o hacer nuevos desarrollos y a esta velocidad. Pero, a ver, yo creo que va a ser algo temporal y también va a haber, yo creo, una selección de empresas ahí. Como dice Carpati, lo interesante no es baicodear algo pequeñito, sino lo importante aquí es generar proyectos grandes, importantes, que estén mantenidos, desarrollados por IAS y supervisados por humanos. Ese es el reto, yo creo. Bueno, puedo desarrollar un millón de proyectos.¿Qué proyectos esto estará haciendo? Que puedan perdurar. Lo importante es saber uno, dos o tres... que tengan un impacto en el mundo. Eso sí. Bueno, pues Plácido, ánimo. Pues eso yo también me lo digo y estamos en ello. Hacemos lo que podemos, amigos. O lo intentamos. Pero bueno, por nosotros no será, vamos, que no será por el esfuerzo y las ganas y pasión que ponemos en todo. Le preguntan a Carpazzi cuál es la habilidad humana más valiosa. Y aquí, bueno, habla de la estética, del gusto, de la supervisión, pero en definitiva del diseño. Y yo ahí estoy de acuerdo,¿no?¿Qué va a quedar al humano? El diseño, la esencia, la percepción, el alma. De las cosas. La intención. El propósito. La conexión. Lo elevado. Para lo que estamos creando, sí. Bueno, luego revisaré el chat,¿vale? Porque no me quiero distraer. Luego revisaré el chat y os contestaré algunas cosas que me estáis poniendo. A ver,¿se necesita gente para ese plan? Como dice, bueno, en definitiva, lo que es requisito es esa especificación, ese desarrollo por especificaciones, guiada por especificaciones detallada,¿no? Y hay un ejemplo que me gusta mucho,¿sabéis? Tiene un proyecto de micro GPT que es un GPT mínimo y super creo que tiene 200 líneas, claro esto si se lo pasa al LLM para que optimice ese repositorio claro, no lo llega a optimizar y es lo que dice él si fuera inteligente vería el proyecto y diría, está optimizado al máximo no lo optimizo, me parece perfecto pero es como dice está siempre con los dientes, está siempre como intentando reiterar, buscar y analizar, y eso bueno, no podemos decir que es un fallo, pero hay que entender esa naturaleza para el desarrollo de proyectos muchas veces, porque siempre estaría como iterando, buscando y viendo y a lo mejor no entiende lo que es la versión más óptima y parar esto es importante tenerlo en cuenta no sé, un momento Bueno, él dice que de momento la gente va a ser necesaria. Sí, yo entiendo que sí, pero menos. Con lo que entonces va a haber una reconversión y un apocalipsis importante. Ya os lo advierto. No sé cuándo va a ocurrir. Un año, dos, tres. Está ocurriendo ya, en cierta medida. Pero sí va a haber un repunte positivo. Pero¿va a durar? No lo sé.¿Cuánto va a durar?¿Meses?¿Un año? No mucho más. Formas irregulares de inteligencia. Bueno, él habla de... dice la entrevistadora, no estamos creando animales, estamos creando fantasmas. Invocando fantasmas. Bueno, es algo que ya dijo al que le dedicamos un programa y en el que Carpati no se moja mucho. A ver, Carpati es muy buen ingeniero, comunicador, educador, pero no se moja en la parte paradigma, ontología... Disruptión, visión. No es un visionario ni un líder. Para nada. Bueno, un líder en lo suyo, en su contexto, sí. Obviamente. Me refiero a un líder en llevar una humanidad a entender e integrar esa nueva visión o paradigma. Entiendo que en lo suyo, obviamente sí. Es de los más líderes y los que más gente sigue y marca tendencia.

UNKNOWN

Eh...

SPEAKER_05

Bueno, habla de todo el tema de la seguridad,¿no? De los agentes, Open Cloud, etcétera, de permisos reales, contexto local, etcétera,¿no? Pero bueno, tampoco es que haga mucho hincapié. Sí que habla de la educación, de convertir... Bueno, aprender a aprender y de llevar lo técnico a lo simple,¿no? Es importante.

UNKNOWN

Eh...

SPEAKER_05

lo que hemos dicho, lo de Wikipedia... pero quiero acabar con una frase... que dice que... yo creo que es para enmarcar... que no es suya... si no es alguien que creo que le pasa... y él retuitea... o repostea en X... que es externalizar... puedes externalizar tu pensamiento... pero no tu comprensión... y ahí... hay una gran esencia... de determinadas cosas. y Carpati dice que cada dos días o cada día piensa en esta frase y es que claro la versión 2.03 o 154.524 de Carpati debería ser esa y es atravesar ese umbral de certidumbre ingenieril y de intentar explicar entender, opinar sobre lo que supone justamente esa frase que es la puerta a su nueva versión desde el respeto y admiración que desde aquí le tengo y seguro le tenemos dicho lo cual vamos a revisar el chat y si ponéis cosas interesantes las contesto y si no pues bueno, hola a todos, saludos gracias por estar ahí bastante gente, acordaos que esta tarde a las 7 y media hay programa Bueno, lo de español, lo de que los programas sean en español me lo voy a pensar. Es horrible, es horrible. Me parece horrible. Yo sé que así lo entendéis mejor, que lo podéis escuchar mientras hacéis otra cosa. Me parece horrible. Se pierde la esencia del tío, se pierde... Claro, lo que pasa es que entiendo que, claro, se entiende en español y al menos se puede escuchar. Pero me parece... A mí me duele la cabeza de escucharlo y esos tics y luego cambia la voz cuando quiere. Bueno, me Parece que se pierde la calidad de un ponente como Carpati escuchar su voz y subtitularla y leerlo y conectar con su vibración, con lo que dice, su velocidad, su voz. No sé si... No me gusta. Eh... Vamos a ver, buen programa, no sé qué, gracias por traerlo a mi lado. A ver, que os preguntáis por aquí... Bueno, Andrés Carpati y Demis Hassabis, vaya par de genios magistrales y sus ideas escriben el futuro.¿Sus ideas escriben el futuro? No lo sé. A mí, por ejemplo, me parece mucho más líder Elon Musk que estos dos. No me refiero a que sean más listos o el impacto en inteligencia artificial sea mucho mayor por parte de Andrés Carpati y Demis Hassabis, sobre todo, que Elon Musk. Me refiero al liderazgo y a crear futuro. No, Copilot no. A ver, Copilot no entraría dentro de esta categoría génica,¿vale? Sería más un bycoding que la ingeniería génica en la que estamos. A ver... No, a ver, hay trabajos, no tiene nada que ver con el tema de ingeniería. Es simplemente que vamos a otra realidad donde hemos automatizado o creado una serie de cosas que nos permiten prescindir de unos puestos o que cambien su realidad y otros salen potenciados por los trabajos manuales. Los robots no lo van a hacer, ya sabéis, fontaneros, electricistas, fontaneros, electricistas,¿qué más era? Ah, granjeros, pues esto.¿Qué vais a ser de mayores?¿Eh? Sí, lo del concepto de... Lo que dice aquí dice ya, sí... Dice, y en nuestra interacción con la vida real, esos agentes siempre presentes, es decir, el concepto de agente personal, bueno, lo que dice Meta de superinteligencia personal, veremos a qué nivel de libertad. Yo creo que eso debería estar vinculado, no vinculado a una compañía, sino ser descentralizado, pero claro, no creo que dejen, no creo que sea legal tener una superinteligencia en tu cerebro que no dependa de ningún gobierno, estado o compañía. Dice Ingenieros del Prom, Agustín, dice Ingenieros del Prom, dice, para echarse a reír, dice, unas tierras en Zamora lo más barato posible y volver al origen. Bueno, sí, agricultor,¿no? Granjero. Agustín, tú te has decantado por la granja. Venga. Aceptado. No, la capacidad de adaptación, como decís aquí, nos ha pillado, bueno, es lo que le preguntan al principio, oye, pero si tú te ves sobrepasado, si tú te ves sobrepasado, el mundo... Un fuerte abrazo, abogadro. No, lo del Harness Agentic esta semana está planificado, pero no sé cuándo será. Porque vamos a revisar también la arquitectura agéntica de Palantir. Después desde Palantir.¿Dónde se mueve?

UNKNOWN

No sé.

SPEAKER_05

bueno, lo de español es horrible venga esta es buena Javier Ernesto Luján Prieto¿quién va a comprar los autos los coches de lujo a cuotas? esa es muy buena a cuotas si desaparece o disminuye la clase media es que el problema es que el nuevo proyecto civilizatorio el nuevo contrato social de lo que solo se vislumbra la renta básica universal está por definir decidir y no va a ser un buen contrato porque el sistema sistema no defiende al humano. Yo lo siento, es decir, el software 3.0 sí abre posibilidades a muy pocos, democratiza el desarrollo del software, pero ya os digo que cuando pase el tiempo cada vez serán menos los que desarrollen software y más los que hagan como... Agustín y Sazamora a buscar un terreno y ser granjero.¿Habrá clase media? No la hay ya.¿Hay clase media? Bueno, entiendo que algo queda. La van a destruir. Se va a destruir. Y quedarán grupos de élite, ya sean por el tema económico, intelectual o social, que... que creen en el universo 25 más 1 o el 26 para las ratas, para los humanos yo XHABAI forma parte de las iniciativas de luchar contra eso¿Duraremos, ganaremos, aportaremos esa resistencia o ese liderazgo que permita ir en otra dirección o que no sea tan inhumano? Pues no lo sé, no lo sé. Tampoco vamos de salvadores, sino vamos de humanos creando una nueva era, un nuevo futuro. No sé si somos muy soñadores o somos humanos. verdaderos humanos no lo sé vosotros decidís con vuestro apoyo con vuestros comentarios siguiéndonos apoyándonos durante tantos años también hay que ser más hay que ser más e intergeneracional vamos a ver qué hacemos generación Z Z Habay vamos a dar noticias al respecto permaneced atentos esta tarde a las 7 y media la niebla el futuro de la inteligencia artificial os espero a todos que para eso me lo curro así que me gusta estar acompañado os espero esta tarde gracias por estar ahí voy por café y en un ratito nos vemos

SPEAKER_00

¡Gracias!