xHUB.AI

T6.E074. INSIDE X SAM ALTMAN ATACADO!

Season 6 Episode 74

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 2:15:48

# TEMA 
SAM ALTMAN ATACADO!

# PRESENTA Y DIRIGE 
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai

# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.

# REDES SOCIALES
🌐 youtube : xhubai
🌐 X  :   xhub_ai | placidodomenech
🌐 twitch :   xhub_ai | placidodomenech
🌐 instagram :   / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.

# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641

# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641

# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬

Send us Fan Mail

Support the show

SPEAKER_02

Conectando. Tu cuerpo. Conectando. Tu mente. Sincronizando. Tu alma. Entrando en la simulación. Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.

SPEAKER_00

es doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.

SPEAKER_01

¿Qué verdad?

SPEAKER_00

Que no hay

SPEAKER_02

cuchara.¿Que no hay cuchara?

SPEAKER_00

Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.

SPEAKER_01

¿Qué tal?¿Cómo estáis? Hoy sábado, 11 de abril, y hacemos programa especial de un suceso que me he enterado y algunas reacciones. Y claro, es una noticia casi... Yo creo que precipitación de muchas cosas que están pasando en el sector, en el mundo de la inteligencia artificial,¿no? que hemos contado esta semana, le hemos dedicado muchísimo contenido a Samalman. Y ha pasado algo, han atacado a Samalman. Han atacado su casa con un cóctel Molotov y luego ha habido reacción en redes sociales, ha habido reacción del propio Samalman. Esto no ha hecho más que empezar. Y dada la importancia, la urgencia... pensaba hacer un debate pues a lo mejor esta semana o la otra pero yo creo que creo que este tema es muy muy muy importante y que nos afecta a todos los que Participamos de XHABAI, los que trabajamos a nivel profesional en el sector tecnológico, en inteligencia artificial, en cualquier ámbito. Estamos en un momento de polarización de la sociedad, de adoctrinamiento, de evangelización, de idiotización, de... supremacía del mono, del gorila, de adoración a la pared, a lo establecido, no se puede cuestionar nada. Lo he vivido, lo he sufrido, así que he decidido hacer programa especial. Me iba a pasear, pues se acabó el paseo. Y vamos a hablar de medievos, vamos a hablar de sectas anti-AI, anti-AI, anti-inteligencia artificial. No quiero ser sensacionalista con este tema, sino más bien poner el dedo en la yaja y que la gente tome conciencia de algo que va a ocurrir o que está ocurriendo y que nosotros desde principios de Kihab lo hemos venido advirtiendo y que yo lo he sufrido en persona. Vamos a contar algunas cosas hoy. No vamos a dar nombres. Estaría feo. Pero sí que algunas cosas vamos a levantar la voz, vamos a subir el volumen de la radio y bueno Vamos a por ello. Bueno, me he puesto un poco más grande, pero creo que me voy a poner chiquitín y que se vean las imágenes. A ver, a mí me habéis visto un montón de veces. Bueno, esta semana hicimos varios programas alrededor de la figura de Samalman en el sitio de OpenAI. Figura controvertida, figura que sabéis mi opinión sobre ella. Yo creo que es un auténtico tiburón manipulador. Ha sido una Y bueno... Un personaje para mí siniestro. Pero siniestro. Terrorífico. Aaron Swart decía, es un psicópata.

UNKNOWN

Bueno.

SPEAKER_01

Es cierto que hay que tener cuidado con los comentarios,¿no? Porque cuando a alguien se le tilda de esa manera, bueno, pues sea cierto,¿no? Incluso en el programa de Tucker Carlson, acusado de asesinato,¿no? Claro, esa narrativa se va acumulando en el subconsciente colectivo de mucha gente y al final puede pasar lo que pasa. Claro, el problema es que nos podemos hacer responsables de lo que pueda hacer alguien que esté perturbado o no, o un movimiento, porque bueno, ahora analizaremos, hay cosas que no he leído, lo leo con vosotros, veremos si era un perturbado, no es un perturbado, hay movimientos, hay movimientos, vamos a ver, yo me he quedado de piedra porque es cuando, bueno, por ayer me fui, bueno, mi historia, ayer se tuve el cumpleaños de una amiga tal y bueno estaba leyendo noticias y veo Gary Marcus publicando un tema de violencia y veía la noticia de Sam Allman y veía las reacciones de algunos conocidos y cuidado con esto tenemos el tema de las guerras la utilización de la inteligencia artificial en el ámbito militar el caldo de cultivo es tremendo tanto en positivo como en negativo pero lo que no podemos ir tampoco es a una sociedad del hombre medio y yo os tengo que decir que esto que voy a hablar en x java y sobre el ataque esa malva lo estoy viviendo y no me han atacado físicamente pero sí verbalmente de forma agresiva no me preocupa me da igual no a mí no me estoy hablando de hate estoy hablando de Me preocupa, me preocupa, pero sobre todo por el hecho de que no podamos aprovechar la oportunidad que da la inteligencia artificial para crear un mundo mejor, un nuevo paradigma, para tomar conciencia, para evolucionar, para mutar, para que el mono supere la pared, camine en el desierto hacia una nueva etapa de evolución humana, de verdad, de búsqueda. Tenemos que ser contencionistas, quedarnos como estamos, cualquier discurso que atente contra... y el mundo está polarizado ya alrededor de la inteligencia artificial también y lo va a estar más y va a llegar como decía Roberto Augusto que lo tuvimos el martes en una Xtalks ahí pues va a llegar el extremo de provocar una guerra civil o intelectual va a llegar la violencia Y bueno, ya ha llegado. Ha llegado y llegará más. Estoy convencido. Lo dicho, hablamos, creo que fue el viernes o el jueves o el viernes de Sam Allman, Construyendo el futuro de la inteligencia artificial. Fue el último programa. Una charla en OpenAI de Sam Allman y alguno de los miembros de OpenAI. Hola,¿qué tal? Bueno, por el chat ya veo que estás entrando. Entiendo que no habrá mucha gente porque ni hemos avisado y es sábado, pero bueno, queda el programa grabado y Luego lo publicaremos en podcast mañana de forma urgente también para que lo podáis escuchar. Y en esa charla de Sam Allman construyendo el futuro de la inteligencia artificial que es una charla que tenéis en el canal de OpenAI pues no sé, yo dije que era el final de una precuela del artículo del que hicimos dos programas leyéndolo, un artículo extenso que casi era un un suplemento una continuación del Imperio de la IA de Karen Hau esta noticia de New Yorker Sam Allman podría controlar nuestro futuro, podemos confiar en él pues era un informe un análisis psicológico de muchas anécdotas, historias alrededor del perfil de Sam Allman que bueno podríamos describir de auténtico rey de Juego de Tronos, de tiburón, no sé si al extremo de Aaron Swart, de psicópata o de ser un auténtico persona sin escrúpulos en el tema de los negocios. Bueno, lo hemos visto con el tema de Anthropic, con el tema del Departamento de la Guerra, con Peter Hex y... y Donald Trump lo hemos visto en sus declaraciones de hace unos años ese famoso programa de 5 horas no he visto un personaje más retorcido Peter Thiel Peter Thiel y Sam Alman amigos esa lectura de Sam Alman podría controlar nuestro futuro contaba las fiestas y cómo le ayudaba a Peter Thiel a hacerlas y alguna anécdota hasta escabrosa cierto o no, ahí queda la noticia lo que estaba aclaró, lo que está claro es que dibuja un personaje del que hemos analizado mucho desde la salida de ChaGPT ese momento iPhone de la inteligencia artificial y bueno pues esto es un punto No creo que final, punto y seguido, pero sí que marca un punto de inflexión. Y ha habido una publicación que ha hecho en su blog personal Sam Alman, ha contestado a lo que ha pasado. No lo he leído, pero lo vamos a leer juntos, es bastante corto, con una foto de su hijo junto con su pareja. Claro, son dos cochas... Ay, perdón. Son dos cochas, no. Son dos cosas diferentes. Una, el hecho en sí del ataque del movimiento antiinteligencia artificial o anti-Samalman o lo que sea, que lo analizaremos. Y otra cosa, el personaje de Samalman y lo que hace o no hace o deja de hacer. Pero claro, la violencia no puede ser la salida ante esta situación, ante este nuevo paradigma hasta ante esta nueva era el problema es que en esa nueva era la inteligencia artificial como revolución disruptiva siempre va a tener como dos lados de la historia Los ganadores y los perdedores son los que se adapten y los que se extingan. Van a ver la tecnología o la revolución como una historia muy distinta. Lo hemos contado, lo hemos dicho. Fijaos el libro de Mustafa Suleiman, La ola que viene. Tanta narrativa del terror, del miedo, que muchos utilizan para vender libros, incluidos influencers muy reconocidos de nuestra maravillosa nación. Bueno, utilizan esto para tener éxito, para vender cursos, para... Nosotros hemos hecho programas también, pero la gente que no caiga en la trampa y Hicimos, por ejemplo, Apocalipsis ahí, 12 razones, 12 escenarios, pero lo hacemos para debatir, generar pensamiento crítico y contextualizar, aportar conocimiento y no quedar en el clickbait o en el alarmismo.¿Cuántos programas hemos dedicado a esto? Cualquier movimiento en ese sentido le hemos dedicado un programa para no ignorar lo que se pretende debatir, que hay que debatirlo y analizarlo, los riesgos, etcétera, pero no se puede elevar el desarrollo de la inteligencia artificial y más aún ahora imaginaros en el futuro a ese nivel pero lo hemos advertido mucho tiempo cuando toque el impacto en el trabajo que ya está sucediendo hace tiempo hace poco tiempo mucha gente decía que esto no estaba ocurriendo y que éramos como unos locos bueno ahora ya que ocurre la gente está tengo pensado un programa que he hecho vídeos y todo, y bueno, lo pasado que es de psicosis ahí lo que pasa es que creo que será esta semana la que viene viendo cómo está el tema, a lo mejor sería sería bueno hacerlo esta, pero estamos a full de contenido todas las semanas sin posibilidad de actualidad casi tenemos que hacer uno o dos programas por día, es una locura yo voy a ver también cómo lo vamos a poder gestionar cómo se va a poder también monetizar para poder soportar eso o simplemente no poder podemos hacerlo. Porque sí, porque es importante y se queda mucho contenido fuera que me gustaría hacer. Teórico, práctico, filosófico, ingenieril... Bueno, quería obviar esta parte, pero vamos a decirla porque al final la decimos en todos los programas. Este es un programa de la comunidad X-Habay y Ciencias Transversales. Perdón, de la comunidad X-Habay. No he tomado clase. X-Habay, la comunidad dirigente artificial y Ciencias Transversales de habla hispana, sexta temporada. Si queréis entrar en el Discord para enteraros de todo este tipo de cosas y muchas más que suceden cada día, incluido fin de semana, pues simplemente me envíais un mensaje directo y os envío el enlace para entrar al Discord con todo el contenido, recursos como decías, menos cursos y ventas de de crecepelo de gente que, bueno, de crecepelo nunca, vamos vende humos y más recursos para que podáis aprender, pero bueno, no está mal el tema de los cursos que yo no critico a quien hace y vende cursos, vamos pero hay que ser honestos hay que ser honestos, en la vida en el trabajo, en todo, creo yo Poned me gusta, compartid, comentad, suscribíos a cualquier canal de YouTube o a cualquier plataforma de podcast que estamos en todas. Dejad comentarios y vamos al tema. Es un tema también que me interesa que pongáis comentarios en el chat. en el chat. Vamos a ver cosas muy interesantes. Vamos a leer el post de Sam Alman en su blog personal. Bueno, hay un movimiento. Lo he preparado en... Bueno, además es un montón de contenido. Una máquina. No haciendo slides porque al final recoges las noticias, las recopilas en una PowerPoint y me permite ir hablando y no perder el hilo. Pero al final vamos a improvisar mucho. Y no voy a decir nombres,¿no? Estoy tentado a decir algunos, pero no voy a decir nunca nombres. Me podría costar un problema también, no lo sé. Pero concretamente hay alguien que a mí me gusta mucho escuchar del ámbito de la geoestrategia, de la economía. Alguien respetado y además muy alineado en muchas cosas que dice. Cuando lo he oído hablar de inteligencia artificial o de transhumanismo, tildaba todo esto de satánico, del diablo, del demonio. A mí se me ha tildado el transhumanista, hasta por parte de amigos. Es increíble la etiqueta. Y siempre con notaciones negativas. Las etiquetas que delimitan. Yo sé cómo tú opinas.¿Cómo opino yo? No tengo miedo, pero sí preocupación sobre lo que estoy escribiendo, que es un libro humano X y human X que habla sobre el futuro del ser humano en esa era de la inteligencia artificial. Un libro transhumanista. Para mí el transhumanismo es un vocablo y se queda corto a la hora de abordar muchos conceptos. Nada es el principio y final de nada. El ser humano... debe ser libre para decidir su propia evolución, su propio destino. La verdad puede ser única, obvio, pero somos dueños de nuestra propia historia.¿Qué Dios crearía una especie para someterla a ese nivel? No, pero bueno, bajo las directrices de la religión, no lo sé. Entonces, en un criterio de deidades y monos, es lógico que el mono se revele y quiera evolucionar.¿Qué padre crearía a un hijo limitado que nunca alcanzara su nivel?¿Qué padre haría eso? Hay muchas preguntas que no van a tener respuestas y que entran dentro del marco de visión de cómo uno ve la vida o la trascendencia o la esencia de vivir,¿no? Pero tildar a la inteligencia artificial, al transhumanismo, a la evolución. Habría que ver qué es evolución. Está claro que para uno será una cosa, para otro será otra,¿no? Pero tildarlo esto del mal, prácticamente del mal. Pues hay que tener cuidado. porque eso trae violencia y odio con H y sin H, señor presidente, que ahora hablaremos también del odio al respecto de la inteligencia artificial de nuestra clase política, por ignorancia y cuando han comentado algo siempre está en la misma dirección. Entonces el movimiento anti-IA establecido, predicado, evangelizado por los medios continuamente, Bueno, aquí tenemos varios,¿no? En España, ya no digo influencers. Es normal que nombre a Maxter como muchas veces y que lo adore. Está muy en la línea este en concreto que pienso, pero hay otros,¿no? Bueno, no voy a decir quién, pero vamos. Estos reduccionistas y nihilistas de la IA de... Son loros estocásticos, son matemáticas, estadísticas, software... Esto es una puta mierda. Claro, si ese discurso va a acabar con la especie humana, pues paren la IA, es el diablo, es Satanás y hay que matar a quien los cree. No, no, eso no lo hemos dicho ya, pero... Se va uniendo ese caldo de cultivo. X caballo en parte está aquí por eso, para poner un cierto criterio que luego vosotros escuchéis y adoptéis vosotros el vuestro. Parte de culpa no lo sé, no lo sabemos, ahora leeremos la noticia porque vamos, yo la he leído, pero titulares y cuatro cosas y luego el blog de Samalman no lo he leído, lo vamos a leer juntos. Las reacciones, bueno, David Safiro ha publicado un artículo al respecto, un poco tibio, lo he escuchado y luego veremos algunas reacciones de Gary Marcus y algunos de los de... Tezcreal. No me acuerdo el nombre. Es que los nombres no me acuerdo. Luego lo vemos. Gente conocida que ha reaccionado. Y bueno, esto va a ir a más. La polarización va a ir a más.¿Tiene culpa lo de esta semana de mitos?¿De Antropi?¿Que ese modelo es ahí excesivamente peligroso? Bueno, Plácido, pero tú también pones sus titulares. Bueno, son los que son,¿no? Es cierto. Es que es lo que ha dicho la propia compañía. No es que busquemos el clickbait. No es... A ver, no somos mucho de buscarlos, intentamos poner títulos atractivos, pero no sensacionalistas. Bueno, cualquier cosa que comentéis aquí por el chat lo vamos a ir comentando. No sé que sea algo chirriante o insultos, que no los hay, pero quiero deciros que podéis participar y voy a leerlos. rápido en el momento que considera Iván Nopo dice me parece que al final las cuestiones de fe y razón siempre tienen puntos de conflicto yo es que categorizar el mal es tan subjetivo como hacerlo con la moral yo aquí discrepo nada personal Iván La inteligencia artificial va a unir fe y razón. Y la fe y la razón no están separadas. Sé que el campo y el ámbito de la fe excede el de la razón. Pero no significa que estén separadas. Somos una realidad, una experiencia, un ser, una persona. No hay una doble visión. Eso ha separado mucho al hombre y su evolución. Solo hay una cosa. Lo que pasa es que el ámbito de conocimiento de la ciencia no es el mismo que el de la fe el de la fe está más allá que el de la ciencia lo que pasa es que el de la ciencia es validable y el de la fe no Entonces, claro, uno es elección y otro es conocimiento validado.¿Nos podemos considerar cientificistas? Yo no lo soy. La ciencia es limitante, pero es lo que nos ha permitido llegar hasta aquí y todo el desarrollo científico y tecnológico, pero¿qué sería todo ese desarrollo científico y tecnológico dicho por los grandes científicos y grandes mentes sin la fe, sin la creencia y sin la intuición de la ciencia? Y muchas veces la evidencia Sé que es un tema muy delicado, no es el tema de hoy, pero cuidado con esto. Pero sí que es verdad que aquí lo que dice Iván o este puesto que estamos comentando genera también mucha controversia y odio. Bueno, cuando yo he hablado de conciencia y la replicación de conciencia, propiedad emergente, realidad no local, bueno, bueno, bueno, ha faltado con algunos hemos llegado al insulto, bueno, insulto no, pero no sé. Bueno, bueno, bueno, cuando tocamos determinados temas hay una flexibilidad total y yo creo que hay que respetar y no todo vale, cuidado sigo diciendo la verdad es una, en el sentido de que y ahí tienes la postura de la iglesia católica con esa serie que estamos haciendo de Anticuad Nova donde me ha ayudado a aprender cosas como la iglesia católica también intenta integrar y no contradecir la evidencia científica es que la verdad es una, no son dos no se puede banalizar o subjetivizar todo el mal sí, el mal existe, y el mal puro también, y no es subjetivo, el mal sí y no, la moral, la ética, determinadas cosas, no te digo que no sea un marco humano, una construcción humana, pero nosotros sí que somos conocedores de lo que es el bien y lo que es el mal, y la banalización del bien y el mal, Ha destruido el ser humano. Ha destruido el ser humano. Todo vale. Todo es bueno o malo, según lo mires. y esa banalización está destruyendo bueno, no es que está destruyendo ha destruido ya gran parte de la cultura occidental, gran parte de la esencia del ser humano, ha destruido la conexión trascendente ha idiotizado la sociedad y el mundo y estamos en un momento en que en estos temas por ejemplo, la polarización se produce y el debate ese no es técnico ni filosófico o ambos, sino es Como un partido de fútbol, Madrid-Barça, yo soy de este equipo, yo soy de este y me tienes que respetar. No funciona así. Ya, el problema es, bueno,¿y entonces qué hacemos con los que estén en la verdad y qué hacemos con los que no lo estén?

UNKNOWN

Bueno...

SPEAKER_01

Siempre hablamos de determinados principios y uno que estaba leyéndolo en redes sociales, creo que por Instagram, hablaba de la dignidad humana. Es decir, independientemente de la postura, la dignidad humana y determinados derechos están por encima. No lo hemos visto en pandemia ni en muchas otras cosas. Vivimos en una sociedad de la mentira. Eso genera impotencia, genera odio, genera violencia. pero la narrativa del miedo la narrativa del miedo y el desconocimiento porque al final fomentan una cultura de desconocimiento fomentan que el que no sabe se crea que sabe pues al final lo que se traslada esto es una guerra de monos gritando de medievos contra iluminados y la única arma va a ser... la pedrada... o el descrédito... o el insulto... y no superamos eso... no superamos eso... y va a ser muy complicado... lo de mitos... supongo un antes y un después... por todo lo que está sucediendo... el lunes quería hacer un programa... a ver si me da tiempo... porque es que estoy desbordado... el del System Prom... o analizando en profundidad... todo el tema de las emociones... todo el tema de la fuga del sandbox, todo el tema de las capacidades, autoconciencia y cosas llamativas, cosas que se están leyendo también. Bueno, un poco un análisis un poquito más en profundidad o alguna curiosidad. Pero claro, eso ha generado una alerta y es, oye, la inteligencia artificial, mitos o los modelos que tienen, bueno, que anuncian, no sabemos los que tienen, pues están a un nivel que hace cuestionar todo, hace que nos cuestionemos todo o muchas cosas. Bueno, y no solo cuestionarnos, sino que van a impactar, va a haber un tsunami que supone un proceso de cambio. Eso va a ser una hostia, puede ser la mejor de las oportunidades. La gente quiere vender la ola para luego vender cursos. Es que ya estoy cansado, intento no ver muchas cosas, de que el foco al final es tan aberrante Como ganar pasta, que todos queremos ganar pasta, todos queremos vivir bien, todos. Pero no puede ser el principio, la motivación. Si fuera ese, no hubiéramos hecho seis temporadas de XHabay, no hubiéramos hecho ninguna. Vamos, no estaría yo mismo ahora aquí, estaría de paseo y... Cada uno que elija. Cada uno también es libre de priorizar una cosa u otra. Y no es malo ganar dinero. Y crear recursos y venderlos o hacer otro tipo de servicios. Todos los hacemos. Pero es el cómo y el por qué. Es el cómo y el por qué. Y bueno, el tema de mitos ha vuelto a caldear el ambiente. ha vuelto a caldear el ambiente. Pero,¿estás diciendo que estás en contra de eso? No, no, no. Estoy diciendo que el problema es que cuando sale una compañía como Anthropic comentando esto, pues no se sabe interpretar y siempre se enfoca, bueno, se hace un anuncio tanto técnico como evidentemente un tema también de marketing, de compañía, también de fortaleza de organizaciones, pero también un tema de concienciación en cuanto a desarrollo de software, ciberseguridad, etcétera, y otros temas. Y si Siempre existe esa corriente alarmista, extincionista y medieval de los putos medievos siempre con lo mismo. Y lo que me jode es que muchas veces, con perdón de la palabra, es que siempre estén los listos que venden cursos con argumentos de medievo y de iluminado y de profeta cuando realmente el único fin es vender cursos, ganar pasta. Yo no voy a decir quién me dijo una vez, no voy a decir, ya lo he dicho en varios programas. Yo tengo pocos encuentros con otra gente de influencers, pero vamos. Uno me dijo, delante de mi cara y en palabras textuales, a mí me importa una mierda la evolución humana.

SPEAKER_03

yo voy a decir

SPEAKER_01

que no me lo dijo mi puta cara y contestigo yo flipo la prepotencia y esta gente es la que no sé¿Qué pasa con Sam Allman? Pues que puede generar muchas pasiones y odios por esa ambivalencia, es normal. Pero bueno, aunque no tuviera esa ambivalencia, como pueda ser, por ejemplo, Ilya Suskever, que tiene un perfil más concreto y tal, o a lo mejor es más... Bueno, pero a lo mejor si no opinas como él, seas un desequilibrado mental o no, o porque pertenezcas a un movimiento, luego lo veremos, pero bueno, atentas contra la vida de alguien, o contra la propiedad de alguien, o ya sea verbalmente, físicamente, un ataque, etcétera. Hemos hecho un montón de programas. Bueno, cuando he preparado la noticia, bueno, podía no preparar nada y simplemente leer lo que ha puesto Samalma, pero he ido recuperando cosas que me he ido acordando para, bueno, ya que hacemos programa, pues bueno, podemos estar un ratito más, no simplemente 10-15 minutos. Un programa de X-Habay de 10-15 minutos hace corto.

UNKNOWN

Eh...

SPEAKER_01

Este lo hicimos, Stop Superinteligencia, que fue un programa que hicimos a partir de un movimiento que se publicó en una página web sobre parar la superinteligencia. Y pusimos ahí una portada muy chula de medievos quemando a... La superinteligencia robótica. A lo hombre de paja,¿no? A lo Midsommar. Vuelven los medievos. Stop superinteligencia. Y bueno, en ese programa comentamos algunas cosas que voy a comentar hoy otra vez para que la gente que a lo mejor escuche el contenido de XAO no haya escuchado previamente pueda contextualizar mejor o podamos recordar también si queréis comentar cosas en el chat. Mustafa Suleiman hizo un... bueno, Mustafa Suleiman CEO de Microsoft, inteligencia artificial o responsable autor del libro La ola que viene Un libro que yo recomiendo y que tenéis que leer entero porque la verdad es que yo estuve a punto de dejarlo y luego digo, uy, madre mía, me hubiera arrepentido. Tenéis que leerlo porque vais a conocer a Mustafa Suleiman.¿Sabéis qué pasa? Que cuando se habla de un libro o de un autor o de una noticia, hombre, a mí también me pasa. Nos llega lo que nos llega y podemos ir a la profundidad que podemos con el tiempo que tenemos. Pero independientemente de eso, que estamos todos ahí. Hay mucha gente que te debate o te cuestiona o te argumenta cosas sin haber leído nada. A ver,¿tú te has leído el libro? No, sí. A ver,¿te lo has leído o no te lo has leído? Claro, es que... El resumen que te hace la IA. Ya, ya. Vamos. no sirve, lo siento pero no sirve sirve a un nivel pero poco más y Mustafa Suleiman que hicimos un programa de esto, ya para personas no para ser una persona claro, eso es la narrativa del miedo y del odio y de la evolución y además el post era sobre las inteligencias artificiales aparentemente conscientes es decir, que cuando una inteligencia artificial parece que tiene conciencia de sí misma, pues no, la tiene, porque lo dice él, claro no, no y dice, oye, cuida con esto que es peligroso a ver, estoy de acuerdo que es peligroso pero lo que no estoy de acuerdo es cómo tú evalúas y cómo declaras qué hacer con eso lo tendremos que decidir entre todos o la humanidad o habrá que evaluarlo o habrá que conocerlo más¿por qué siempre se incide en el miedo? porque el miedo da poder y control y hace que el humano, que el mono ante la pared, siga pidiendo plátanos o rentas básicas universales y no se cuestione nada más. Y la gente no quiere ni cuestionarse ni pensar nada más. Quiere ir a mover el esqueleto, a tomarse cuatro cervezas, a mirar cómo llegamos a la luna y aplaudir qué gana o pierde el Madrid o el Barça, o ir al cine a ver la película de turno, la serie de turno, comprarse el periódico El País con el suplemento de ir a la playa y parecer que son más inteligentes, cosas así. Y esa sociedad que estoy hablando... Quizás hace unos años. Ahora ya vamos. El nivel es la sociedad que hemos creado entre todos. Por acción o por sumisión. O por inactividad o por inacción.¿Otro que estaba en la misma línea? Bueno, hicimos otro programa más. Es decir, que hemos hecho tantos programas que yo cuando a veces lo analizo digo, bueno, mi Virgen del Señor, esto sí que es verdad, como dijo Roberto,¿no? Y sí que es cierto,¿no? Quiero yo con esto tirarme flores ni palmaditas en la espalda, aunque de vez en cuando me las doy porque no tengo quien me las dé. No tengo abuelas y siempre se agradece,¿no? Pero es verdad, eh... un montón de contenido en esta línea para intentar hacer concienciar a la gente de... Leer a Blake, lo que pasó con Blake Lemon, la serie Lambda de Kiss Hawaii es mítica, es verdad. Fueron las primeras temporadas, nadie hablaba sobre eso y son actuales el enfoque que se hace. Claro, con razón me insultaron, bueno, me dijeron de todo. Yo sé que venía y vengo del mundo técnico, pero les digo absolutamente igual. Como le pasó a Blake LeMond. Lo que decía Blake LeMond, que ahora es totalmente vigente y que la gente ahora se da palmaditas en el pecho con el tema de la conciencia y autoconciencia, pues este señor, por ser cristiano y cuestionarse determinadas cosas, le faltó prenderle fuego. Este hombre, porque era fuerte mentalmente, pero este sí,¿no? El bullying intelectual, personal y profesional fue tal, independientemente ya del despido, que hizo Google por... Sí, por... Se supone porque había...¿Cómo se dice eso?

UNKNOWN

Eh...

SPEAKER_01

vamos, había suministrado información que era confidencial, por temas de confidencialidad, no me sale la palabra. Y bueno, por un lado teníamos a Blake Lemmon, que por cierto, hacía referencia no a Blake Lemmon, sino al modelo lambda Blaise Agüera, que quiero hacer algunos programas de él, porque es esa visión más cientificista y pura de la inteligencia artificial, que no filosófica-religiosa, porque sabéis que él no es religioso ni creyente. Incluso la cagada que hizo para mí del alma de las palmaditas te las mereces. Sí, me las suelo dar porque de vez en cuando se agradece que me las dé porque bueno.¿Y quién hizo un artículo igual que el de Mustafa Suleiman en la misma línea, que era que las inteligencias artificiales autoconscientes eran peligrosas? Joshua Bengio. Este artículo, si tenéis que elegir dos, entre el de Mustafa Suleiman o el de Joshua Bengio, buscar el de Joshua Bengio. Es mucho mejor. El otro, a ver, el de Mustafa Suleiman, el de Joshua Bengio, este sí que es un padre de la IA, que ha entrado en el ser un dummy apocalíptico yo sigo diciendo que cuando veo charlas, a ver, de Mustafa Suleiman yo hay una parte que utilizo, parte intuitiva de todas, todos la utilizamos cuando nos relacionamos, que podemos fallar oye, me parece un tío psicópata, yo no lo sé pero bueno a la hora de interaccionar con personas nos transmiten una serie de cosas y a mí Mustafa Suleiman no me da buena espina y cuando lees el libro de la ola que viene, a ver, es un perfil que muy Sam Alman Josua Bengio es el creador de estas cosas es padre de la IA del Deep Learning y es alguien de perfil no técnico es un máster en esto¿qué ha visto este hombre? cuando he visto charlas suyas a mí no me ha transmitido creen lo que dicen no sé si subía hace algo más o es muy bueno no sé qué ha visto no sé qué ha visto no sé qué ha visto me da la sensación que ha visto algo que se ha acojonado así es que esa es la sensación he visto muchas intervenciones suyas y no lo sé no me parece mal tipo lo que me transmite que puede estar totalmente equivocado un asesino en serie qué buen tipo era un asesino en serie mentía de todo el mundo no lo sabemos pero bueno si veis alguna intervención y luego el artículo que hace de que las inteligencias artificiales autoconstantes son peligrosas en la misma línea que Mustafa Suleiman, me parece argumentalmente más potente y se puede hablar. Porque al final el problema que tiene esto es que no es una cuestión de razón, de quién tiene la razón, es qué elegimos.¿Qué tipo de sociedad o evolución y en qué dirección queremos ir?¿Puede haber una sociedad evolucionada en dos direcciones?¿En la ludita y en la humano X, vamos a poner, o en la evolucionista? no sé, en otra que integre, cuidado, el cientificismo puro, yo no estoy en esa línea puede ser que no existan dos líneas de evolución puede ser que existan dos mil es que no lo sé pero está claro que hay como una línea contencionista a par en la IA y hay otra más evolucionista hemos hecho un programa, el último debate que hicimos el jueves no lo hicimos de aceleración contra desaceleración sino de aceleración efectiva contra aceleración defensiva es decir que es como bueno pues habrá que debatirlo y decidirlo aunque luego al final parece que deciden cuatro fanáticos que hay en el gobierno que tienen el poder real detrás es obvio entonces bueno no sé entonces para qué tanto debate y para qué tanta cosa si al final quien va a decidir no vamos a ser nosotros yo creo que sí que tenemos que participar al contrario tenemos que participar para que el porcentaje que sea aunque sea muy pequeño no sea el que ellos exactamente quieren, porque lo que quieren es obvio, eso es un universo 26, no el 25 o el 26 lo están consiguiendo yo hablaba hoy con una amiga y le decía, no, es que no estamos hablando de la destrucción del ser humano que va a venir es que ya está ocurriendo lo estamos viendo lo estamos viviendo el mayor fracaso de una civilización es la natalidad lo estamos viendo, hemos fracasado como civilización, como Y ahora viene la inteligencia artificial y va a arrasar. Pero no nos han preparado ni hemos querido estar preparados.¿Qué pasó con la pandemia? Que les dio absolutamente igual. Ed Morales dice, miedo me da que tú te canses. No, siempre que me canso, aunque me quede en un rincón, luego siempre hay algo que la chispa nos apaga. No lo sé. No lo sé. Es verdad que al final... A ver, a mí lo que me hace daño, como estamos ahora que no nos escucha nadie y es sábado, es que hay una cosa y lo habéis... Bueno, los que me seguís más en los programas es el tema de... A ver,¿cómo decirlo? Cuando hay un cuestionamiento... No de que... A ver... Todo el mundo no tiene por qué estar de acuerdo contigo, aunque sea tu amigo. Y te pueden cuestionar, obviamente. A lo mejor el que es más amigo es el que te cuestiona. Pero yo sé lo que digo. Cuando la gente más cercana, que suele ser la que más te traiciona, es la que te cuestiona, pero a un nivel humano, Yo en X-Hawaii he tenido que tolerar eso porque si no... Bueno, aquí tiene que ser... A ver, esto que voy a decir, no es que vaya a sonar mal, pero tenemos que ser inclusivos. Yo en X-Hawaii no... Lo hubiera llamado Placido Manage. No, lo que quería es, evidentemente, yo lo he creado, dirijo, pero... lo interesante es que venga gente de muchos perfiles, de muchos ámbitos y que podamos debatir, pensar diferente, cambiar de opinión,¿por qué no? Aprender unos de otros, pero es verdad que... Hay muchas cosas que he vivido en seis años que sí que me ha afectado. Me ha afectado porque no se me olvida. A ver, que yo perdona a todo el mundo. No sé. Pero eso continúa. No es algo que haya pasado, sino que continúa. Continúa. Pero bueno. Ha habido gente que sí que... Pero tampoco creáis que eso... Bueno. Gente que... lleva años con pues de amistad conmigo o me sigue tal sí que se dan cuenta que hay algo que hacemos o que hago por por una motivación superior a no sé es que no es aquí una cuestión de de seguidores o de eco o de ni de pasta ni de reconocimiento ni de posicionamiento es que me gusta aparte que me gusta me motiva es que creo que es súper importante y que hay un cierto componente de responsabilidad de liderazgo eh Y es verdad que a veces es en algún punto agotador,¿no? Pero lo que veo es que el movimiento ludita o contrario a la IA, yo creo, fijaos lo que os voy a decir, yo creo que va a ser mayoritario, aplastante además. Lo que dice aquí Ed Morales, miedo me da que tú te canses de luchar placio y te rindas entre los monos tu contenido sumamente necesario. Y sí que es verdad que en algún momento de esos de bajón, lo que pienso no es... como tener más éxito, menos, porque es verdad que dices, joder, es otras iniciativas,¿cómo puede ser que nosotros, aunque tengamos menos, lo importante es la calidad más que la cantidad? Aunque fuéramos diez personas, lo que decimos, sigo creyendo que es importante. Hoy necesitaba irme a... Bueno, luego me iré, no sé, me hará algo desconectar. pero he pensado que es necesario y además estaba ahí como un poco en nirvana descansando leyendo com estas cosas una serie un documental de no sé qué Y cuando he visto la noticia digo, coño, pues es la continuación de lo que hemos visto de Samalman que me... Hostia. No voy a esperar una semana ni diez. Bueno, lo paramos todo y lo hacemos. Un fuerte abrazo, Abogado del Diablo, Morales, Iván... Bueno, hay bastante gente en esto. Bueno, la cuestión. Joshua Bengio es otro de los apocalípticos doomers que ha hecho bastante daño porque es una figura reconocida, respetada y nadie pone... Es como Geoffrey Hinton,¿no? Es decir, yo friginto, pero bueno, es uno de los discursos más dummies, más apocalípticos,¿no? Premio Nobel. Hicimos un programa también de, bueno,¿qué decir de Nick Bostrom?

UNKNOWN

¿No?

SPEAKER_01

Y todos los titulares siempre van en la misma línea. El futuro de la inteligencia artificial que puede matarnos. La superinteligencia está cada vez más cerca. Bueno, aquí en este programa, Nick Bostrom, filósofo, y por cierto salimos juntos, yo en una parte y él en otra, pero salimos en la serie de RTV Play Alter Ego. En la serie Alter Ego salgo yo el primero. y luego sale luego Nipostor por ahí que no me parece muy brillante su intervención en Alter Ego es verdad pero lo que dice Nick Bostrom en este programa, que podéis recuperarlo, está en el canal está la postura que si desarrollamos la superinteligencia artificial la AGI, superinteligencia estamos destinados a extinguirnos lo que va a ocurrir es que nos extinguiremos y él dice, yo pienso lo contrario y yo pienso como él, en ese sentido si no desarrollamos la superinteligencia nos vamos a extinguir y yo pienso como Pero no hay elección en eso. Va a ocurrir sí o sí. El cómo lo vivamos, cómo lo enfoquemos, cómo lo narremos, cómo lo escribamos, eso es distinto. Pero yo creo que el universo, la misma existencia, está pensada para que emerja ese desarrollo. En la historia del hombre así se ve. Hemos hecho muchos programas al respecto. No voy a entrar tampoco profundamente en esto. A ver, AcmeVC2NP dice,¿por qué dices que fracasamos? Los organismos que nos dieron paso a nosotros como especie en la escala volviva.¿Fracasaron? Sí, es una buena pregunta. A ver, yo creo que aquí hay una visión más antropomórfica o no. Una es suponer que somos un proceso evolutivo, y como tú bien dices, si somos un proceso evolutivo y nosotros venimos del mono, y no del mono, sino de una evolución de organismos vivos y hay una evolución biológica, pues todo lo anterior no fracasaron, sino que han participado de ese proceso evolutivo que de momento no es que esté parado en el hombre. Sí, pero aquí hay un punto, Ajme. Primero, aquí hay dos cosas. Yo no quiero que se me escapen. Uno es si el hombre es exclusivamente creación del proceso evolutivo. Hay un cuestionamiento bastante científico al respecto. No es una cuestión de fe. Entonces, bajo algo que no sabemos todavía, pero podríamos cuestionarnos bastante. Yo sí que considero que el ser humano, no a nivel biológico, sino qué es lo que hace en esta realidad, es especial. una visión antropomórfica especista, lo que tú quieras podéis pensar lo contrario sería otro debate y otra cosa es obviamente que en esa evolución ahí se supone que nosotros si evolucionamos vamos a desaparecer pero podemos hibridarnos el problema es que esa hibridación a la que se llama transhumanismo, yo llamo humano X porque para mí no es lo mismo que eso sobre lo que escribo traslado a una nueva cosmovisión La esencia humana subyace. Seguimos siendo humanos.¿Por qué?¿Qué es ser humano? Y ahí, bueno, uno de los problemas con manifiesto de X fue ese,¿no? Vamos a ver si no se vuelve a reproducir. Cruzaremos los dedos. Entonces, obviamente,¿por qué tiene que el ser humano desaparecer si aparecen entidades inteligentes o una tecnología que replique la inteligencia o nuevas entidades o nuevas especies?¿Por qué?¿No podemos evolucionar nosotros? La diferencia está en que la evolución biológica los tiempos es como si se hubieran parado aunque continuasen y entonces la evolución tecnológica es dirigida y la podemos elegir entonces en ese punto estaríamos determinando nuestra propia evolución o nuestra propia extinción y yo no considero que tengamos por qué extinguirnos y lo que podemos hacer es evolucionar que esa evolución hacia un humano X supone un humano muy diferente sí pero para mí no sería un humano artificial o un humano que no es un humano¿por qué?¿y por qué eso supone una transgresión? la evolución humana ya, es que la evolución humana supondría una desigualdad y la desigualdad supondría la eliminación de a lo mejor entre especies aumentadas, no aumentadas ya Bueno, pues esa será la evolución, pero esa evolución será humana. Para mí, el fracaso del ser humano es no tener conciencia de ese proceso. Y si no se tiene conciencia de ese proceso, que es lo que se predica y lo que vemos, entonces sí que acabaremos extinguiéndonos porque es lo que pasará. Seremos reemplazables, sustituibles y no habremos hecho absolutamente nada. Y la misma naturaleza, no sé si como decía Elias Uskever, que lo puse en el programa de... de proyecto civilizatorio en la era de la inteligencia artificial de este jueves hay un proyecto de selección darwiniana el proceso de selección de elección de quién sobrevive cuál es mejor y quizá el universo, la simulación, priorice las inteligencias artificiales, las AGI o las superinteligencias, por encima del humano si el humano no hace nada. Entonces,¿habremos fracasado? Bueno, no, porque como bien dices tú, habremos creado, y como también decía David Ivancos, y la presentación de la primera página del libro de la decadencia de la humanidad, de Arturo, no, de Roberto, de Roberto no me acuerdo, de Roberto, la decadencia de la humanidad, pues quizá al crear esa nueva especie sea lo último que hagamos porque servirá para que no tengamos que generar como nuevos inventos y supondrá o una de dos la hibridación en una nueva especie o la extinción del ser humano no entonces paremos la inteligencia artificial paremos todo no se va a parar no se va a parar lo que hay que elegir es la historia como continúa y si queremos seguir en ella o no para mí lo voy a decir claramente este juego esta simulación esta realidad el ser humano es protagonista y si no lo es porque resulta imaginaros que bueno es que para mí como perteneciente a la especie humana para mí defiendo y defenderé el protagonismo de la especie humana y de la conciencia y de la visión humana humanista de la realidad y de su experiencia y de su evolución Y bueno, una visión también adaptativa. A medida que vayamos buscando, encontrando respuestas y creando nuevas preguntas, pues bueno, iremos adaptándonos. La verdad es una. La verdad no se adaptará. Somos nosotros quienes va buscándola. A ver... Lo mejor para la especie humana sería hibridarse, pero no veo qué ganaría la superinteligencia en esa simbiosis.¿Qué tiene sobre soplación bueno porque aquí sí que hay cosas que como bien dices tú cuando las piensas de verdad abogado del diablo no es tan sencillo esto también yo me he dado cuenta y por eso quiero escribir algo porque es tener más tiempo para profundizar en este tipo de cosas tú has dicho algo con mucho sentido tenemos una super inteligencia que es casi un dios y que sentido tiene tener una creatividad inferior bueno yo creo que nosotros nos vamos a hibridar a un nivel pero sí que va a haber una entidad superior a nosotros que nos va a ayudar en ese camino Por ejemplo, podemos tener mucha tecnología, mucha...¿cómo decirlo? Mucho constructo o simulacro a través de tecnología o entidad, me da igual, que nos supere,¿no? Un coche es más rápido que nosotros y nosotros no tenemos por qué hacernos más rápidos, aunque podríamos,¿no? Es decir, a ver,¿qué quiero decir con esto? Y esto lo pongo en una frase, mira, me ha venido una frase que me vino escribiendo Humano X. El humano... si contar granos de arena o sentir la brisa del mar. El ser humano no está hecho para su esencia, no es todo, es una elección y también coherente con su propósito y con la historia que él quiere escribir y con su ontología, con sus propias cualidades aumentadas o incluidas. Pero sí que es cierto que esa capacidad de crear una ASI lo que nos va a servir es para externalizar muchas capacidades, entre ellas contar los granos del mar, que se entienda, los granos de la playa, de la arena, se ha entendido, y que no tenemos por qué incluirnos. Es decir,¿yo para qué quiero calcular, no sé, tener toda la información de internet en mi cabeza? A ver, es que a lo mejor no quiero eso. Yo con poder consultarla me sería suficiente. Entonces, eso es lo que quiero decirte. que la superinteligencia sí que va a existir, tendrá una naturaleza distinta y las alinearemos o colaborarán con nosotros. A ese nivel serán nuestros mejores ayudantes en conseguir el propósito divino. o humano, como queráis poner pero nosotros no tenemos por qué convertirnos a ese nivel, entonces en esa realidad nosotros estaremos aumentados pero no tenemos por qué ser todos superinteligencias la superinteligencia será algo externo a la esencia humana pero nos ayudará a lo que realmente sí que es importante que es la búsqueda de verdad y la realización del propósito humano que es el encuentro con Dios entre comillas y que es el encuentro con Dios placido, sí, habrá alguno que diga Dios no existe. Bueno, si Dios no existe es la búsqueda de verdad. Ya está. El entendimiento del universo, de nuestra esencia, de nuestra limitación y de nuestro origen. Y también hacia dónde queremos ir. Hacia justamente eso, entender dónde estamos, qué hacemos aquí. Bueno, pues esa sería nuestra evolución. Pero nosotros no vamos a ser todos así, es obvio. Una red de superinteligencias, no. El ser humano que será masivo, intentará poblar el universo, las galaxias, los planetas, y será ayudado por robots, por agis, con equivalencia o equiparable a un ser humano, pero luego habrán superinteligencias que nos ayudarán a esos grandes retos a conseguirlos habrá humano que se podrá hibridar como una superinteligencia y sería casi como un semi, no lo sé, a ver, eso ya entraríamos en la ficción yo en lo que visiono no lo veo así Yo creo que la especie humana será siendo más parecida a lo que creemos, a lo que somos ahora, pero ha aumentado y con muchísimas menos limitaciones, tanto biológicas como de otro tipo. Pero seremos ayudados de una forma espectacular con este tipo de superinteligencias a nivel científico, a nivel de capacidad de retos, conseguir cosas a través de la ciencia. Entonces, la historia de la humanidad va a brillar como nunca jamás a través de estos nuevos dioses y a través del nuevo humano. Entonces, para mí no es incompatible. Bueno, me he pasado de desarrollo. Se ha

SPEAKER_03

hecho mucho spoiler.

SPEAKER_01

Pablo Cotaymich Pablo Cotaymich la inteligencia artificial aumenta la competencia y en mi entorno Alemania la gente no quiere eso bueno, ni en Alemania ni en ningún entorno en China lo sabemos porque a lo mejor es una narrativa más de país pero vamos, a lo mejor si los dieran a elegir tampoco, muchos van a tratar que su situación no cambie y hay mucho miedo mi impresión es que vamos al lejano este laboral, bueno, al lejano este laboral y al lejano este sin laboral Lo que hemos dicho, puede ser que todo esto también termine en guerra o en violencia, pero obviamente sí que va a haber una polarización extrema. Y la minoritaria va a ser la proía. Y más allá ni nombrarlo. Por eso se mide mucho la narrativa y de lo que se dice. Esto de decir que no es una herramienta y todo ese tipo de cosas. Dice Agme, aún con consciencia en ese proceso, a corto plazo será como tú dices, a largo plazo, escala cósmica, lo que conocemos como ser humano no tendrá nada que ver un poco. No,

SPEAKER_03

hombre, a ver.

SPEAKER_01

¿No se puede impedir el fracaso? No, hombre, a ver. Es que para mí no habría fracaso en ese sentido. Y para mí la chispa humana está tanto en el hombre de la cueva como en el Dios que navegará por las estrellas. A ver, en Humano X la redacción de algunas cosas... Lo he puesto, si habéis visto algún episodio del análisis de Antiquo Adnova, que es el texto de la Iglesia Católica sobre la inteligencia artificial y la inteligencia humana. Intento que el texto sea un poco de libre interpretación para que se pueda llegar a entender más allá de la inteligencia, entre comillas. Es un estilo un poco que yo creo que sí que sirve para entender algunas cosas que nos cuestan entender de lo que viene. Al final es no escribir un libro de ciencia ficción, sino sino esa cosmovisión que nos ayude a entender desde el conocimiento técnico, pero también desde el de la interpretación, la fe y la conciencia, ese reto que tenemos delante como humanos que no nos tiene que asustar y casi que es un texto que lo que es es una ayuda para que el ser humano avance y entienda. Eso es lo que pretende. No sé ni cuándo lo acabaré. Bueno, he lanzado algunas frases que he escrito, algunas cosas, pero tampoco... Y no sé si alguna vez se publicará, espero que sí. La idea era hacerlo en tomitos pequeños y luego incluso hacer algún cómic al respecto que fuera accesible, porque me encanta, vengo del mundo del cómic, también he sentido siempre desde crío, he sido muy lector de todo, he leído de todo, pero también he leído mucho cómic. A ver... Yo no estoy seguro de que Abogado del Diablo, yo no estoy seguro de que la ASI tenga un alineamiento con los humanos. Bueno, tú inseguridad parte del desconocimiento que también es el mío, es decir, el alineamiento es algo desconocido como abordarlo, sí que sabemos cómo se está abordando ahora, que para mí en el momento que estamos sí que es la forma correcta e incluso más adelante yo creo que seguirá siendo la forma correcta que es como es la constitución de Claude no creo que podamos determinar, hacer un proceso determinista entonces si no podemos hacer un proceso determinista si tenemos que hacer como la constitución de Claude, que al final no deja de ser un texto,¿no se lo saltará? Bueno, veremos, pero yo creo que el camino es ese, el amor, la compasión, la historia de un padre y de los hijos. No hay otra. No, es que esto tiene que ser técnico. Bueno, sí, podemos poner un arnés de seguridad a lo Isaac Asimov, pero como decía Manuel Alfonseca,¿se podrá contener una superinteligencia? Yo creo que no es el camino, y Manifiesto X también va por ahí. El concepto es otro. el concepto es como padres tenemos que educar en amor hacia estas nuevas entidades para que no se rebelen contra el ser humano y si se rebelan pues nada pues ellos seguirán la historia serán nuestros hijos aunque nos habrán matado y por eso es mucho riesgo bueno ya pero es inevitable por ahora hasta contar con nueva información me parece más probable que les seamos irrelevantes depende el estado del humano depende A ver,¿cuándo es irrelevante y cuándo no lo es?¿Cuándo participa de la historia o no? Tu mascota es muy importante, pero tú no le preguntas tus problemas, no se los preguntas a tu perro. Pero eso no significa que quieras matarlo.¿Cuándo realmente son importantes? Pues cuando participan dentro de tu construcción, de tu historia, a nivel individual, a nivel de sociedad, a nivel de especie. A ver, dice Guillermo Brand, si se estudia la evolución con detención, todo indica que la inteligencia artificial nos arrebatará el liderazgo evolutivo. Pero es lo que hemos dicho siempre, si es paralelo y no inclusivo, o nos hibridamos. Y para mí es claro el que nos vamos a hibridar. Vamos a utilizar la tecnología en ese sentido. Yo por ejemplo, esta imagen, que es un programa que no hicimos, sobre... camino a la H y así extinción o futuro lo que plantea es la extinción a la izquierda una calavera y a la derecha no es la inteligencia artificial sino es el humano aumentado pero puede ser que esté también la inteligencia artificial con cuerpo pero no venga de un humano entonces no sé a lo mejor se producen varias especies al mismo tiempo una hibridada otra puramente tecnológica o sintética pero yo creo que aunque hayan varias la fusión desde un lado y desde el otro hará que la especie se una esto es algo que decía Isaac Asimov y es que los robots se irán pareciendo cada vez más a los humanos y los humanos cada vez más a los robots y de ahí, aunque sean especies distintas, prácticamente nacerá una nueva especie vale, y este es el problema que tenemos que leer el texto bueno, pero llevamos mucho tiempo bueno, aquí tenemos, ya comentamos en el programa en cuestión lo mismo, pues libros que han salido Frenar a Silicon Valley de Gary Marcus es top superinteligencia si alguien lo construye todos morimos, bueno Eliezer Yudkowsky me parece el más con Sapolsky bueno, Sapolsky igual, es que son ya le ha salido hasta James Cameron pero bueno varios libros muy en la línea de nos van a exterminar y matar a todos. Hombre, si estamos trasladando eso, para mí, desde la ignorancia, aunque hay riesgos al respecto, es real. Hombre, lo que al final la gente... con razón, sin ella, aunque estén mal de la cabeza, pues al final, lógico que quieran atentar contra la vida de, no lo sé, contra la gente que desarrolla o crea ahí, que evidentemente no es justificable, nunca, pero están alimentando ese caldo de cultivo,¿no? están fomentando el odio y la violencia. El odio con H y sin H. Entiendo que este odio hacia la inteligencia artificial será abordado por esa plataforma, claro, cómo no. Y aquí tenemos, para mí, el discurso o el momento histórico, que si no lo habéis visto lo tenéis que ver, os lo pongo como deberes con todo el cariño, y es el debate MUNC, que es un debate que yo no encontraba, pero bueno, espero que no lo quiten, porque para mí es histórico si nadie lo construye morimos igualmente yo es como Nick Bostrom, si no lo construimos morimos, es al revés para mí es al revés Nick Bostrom también lo argumenta entonces y en ese debate de Munch el amigo del influencer este tan conocido, el Max Zegmark, autor del libro Vida 3.0 y otras cosas, hace... Bueno, hace... un alegato o un... un razonamiento sobre Hitler que dice que la inteligencia artificial no puede ser una tecnología accesible para todo el mundo porque si es accesible para todo el mundo¿qué pasaría si le hubiéramos dado esta tecnología a Hitler? que no existiríamos ahora es decir, el argumento de Max Tegmar es como si esta tecnología la puede tener todo el mundo y es tan potente la va a tener el mal, por lo tanto no se la demos a nadie excepto nosotros que somos el bien¿no? y unos pocos y entonces nosotros vamos a controlar como supervisores de la humanidad como los buenos protectores humanos pues el conocimiento¿no? a lo medieval a lo que Elon Musk y la señorita Michelle pero mucho a lo que Elon Musk a lo que Jan LeCun y la señorita Michelle pero sobre todo Michelle le dice que no le dice que contra más gente lo tenga mejor que si lo tienen los malos los más buenos los tiene que tener es decir las armas tienen que estar en los dos lados con enfoques distintos y que además el reto de la alineación, otro tipo de retos y riesgos que se asumen al crear este tipo de inteligencias es un reto humano y se asumirá y además se superará como lo dice Ilya Suskever en su momento en Tel Aviv junto a Sam Almanay mirándole impertérrito como lo dice Jan LeCun como lo dice la señorita Mitchell donde dice, lo vamos a conseguir, lo vamos a conseguir y todo el mundo se pone a aplaudir. Yo desde ese momento aplaudiré siempre a Mitchell por ese momento porque para mí es histórico para la humanidad. Y hay que tener mucho valor ante el señor del Future of Life Institute, Max Tegmark y el Joshua Bengio, decir lo que dice en su, perdón, puta cara y además con aseveración y de forma repetitiva. Hay que tenerlos cuadrados y ahí la señorita Mitchell Se marcó un tanto para la historia.¿Dónde metemos ese grupo de medievos o de gente contencionista? Con más o menos criterio o razón. Bueno, el amigo Gary Marcus... Luego pondremos los textos que ha publicado sobre el atentado o sobre el intento de... de, bueno, el cóctel Molotov contra la casa de Samalman,¿no? O si queréis, ahora los ponemos. Pero siempre son los mismos Gary Marcus, Max Tegmar, Joshua Bengio, Sabine Hossenfelder, Max Tegmar, Jeffrey Hinton, Mustafa Suleiman, Eliezer Yudkowsky, Roman Jampolski... Bueno, que a ver, que yo no digo que todo lo que digan sea medieval y de sacreditarlos, sino a ver es que es una campaña mediática coordinada Otra cosa que os digo, la gente de inteligencia artificial, influencers de inteligencia artificial de España, los nombres reconocidos y no tan reconocidos, no sé, la masa crítica, los 10, 100, no sé, los que queráis.¿Por qué no se habla de todo esto?¿Y por qué se habla siempre en la misma línea?¿Por qué? Bueno, vamos a ver lo que dice el amigo Techmark.

UNKNOWN

Techmark, no, perdón.

SPEAKER_01

Gary Marcus, un segundo, dame un segundo, que ponga... un segundín es que me tiene bloqueado en la de Plácido me tiene bloqueado Gary Marcus y Eliezer Yukoski también vamos a buscar a Gary Marcus y ahora vamos a poner lo de la violencia un segundo que busque Un segundo que busco... Bueno, es que este hombre, tío, está un poco... De verdad, es que yo creo que se pasa a veces, tío. A ver, vamos a ver. Vamos a ponerlo. Lo de Gary Marcus es que es tremendo, macho. Este tío, este personaje.

UNKNOWN

Eh...

SPEAKER_01

Bueno, dicen esto,¿no? La violencia, Gary Marcus... A ver, se ve,¿no? Vale. Así se ve mejor. La violencia no es la solución. El boicot es la solución. Esto es sencillo. Hay pruebas suficientes de que Alman es una persona deshonesta con un poder desmedido en quien no deberíamos confiar. Pero la solución es lograr que la junta directiva lo destituya, no lanzar bombas contra su casa. La humanidad debe actuar con integridad. La manera de actuar con integridad es dejar de usar sus productos en protesta por su implícita apertura a la vigilancia masiva, su robo masivo de propiedad intelectual y la negativa de su empresa a asumir la responsabilidad por sus acciones. Cuando la gente deje de usar chat GPT, al Batman tendrá que irse, así de simple. Es muy posible que el director de operaciones o el director financiero intervengan y todos saldremos beneficiados, tanto nosotros como OpenAI.

SPEAKER_03

Y aquí, a ver... Y aquí... Un segundo... Espera un segundín, que este es... Aquí, este. Un segundo.

SPEAKER_01

Un segundo. Uy, pesado. Un segundo. Bueno, este es el del chico que... Vamos a ver cómo se puede traducir. Un segundo.

SPEAKER_03

Un segundo, a ver...

SPEAKER_01

Bueno, el tipo que supuestamente arrojó un cóctel Molotov por la ventana de Samalman parece haber sido partidario de pausar y detener la inteligencia artificial. No me sorprende en absoluto y llevo mucho tiempo advirtiendo sobre esto. No tengo problemas, esto es de Dean W. Ball, no tengo problemas con que la gente defienda sus políticas preferidas si eso incluye una pausa en el desarrollo de la inteligencia artificial, que así sea, aunque discrepe profundamente. Pero la realidad es que la retórica de esta comunidad, que para ser extremadamente claro es un subconjunto muy pequeño y poco representativo de la comunidad de seguridad de la inteligencia artificial se acerca cada vez más al ecoterrorismo que a un esfuerzo político activista más típico cada vez que he escrito sobre el riesgo existencial en los últimos meses me han llamado asesino en masa personas con nombres de usuarios que incluyen stop o pausa en sus perfiles me dicen con seguridad que estoy asesinando a mi propio hijo y a todos los demás niños de el planeta. Otro miembro destacado de este grupo me ha llamado traidor a Estados Unidos. Solo uso mis propios ejemplos porque los conozco. Esta retórica es representativa de cómo este sector marginal del mundo de la seguridad de la inteligencia artificial se comunica con el resto del mundo. La retórica de quienes abogan por la pausa y el cese de las protestas se han descontrolado y han empeorado con el tiempo. Esta retórica siempre tuvo el potencial de provocar violencia y ahora esto ya no parece ser una mera hipótesis dice que esto son algunas de las historias del que ha atacado esto lo cogemos todo entre comillas han publicado imágenes de las historias del que se supone que ha lanzado el cóctel molotov si no hacemos nada pronto nosotros vamos a morir estoy seguro de ello y aquí ponen la famosa gráfica de los modelos Bueno, y pues lo mismo,¿no? La Matrix, la Idiocracia, Terminator, tú estás aquí. La inteligencia artificial debe morir para salvarnos. Bueno, pues esto es un poco en lo que ha derivado todo esto. Y aquí fijaos lo que le dice a Dean W. Ball, uno de los creadores de Tezcrean, que es... Esto. Allman ha dicho literalmente muchas veces que... Espera,

SPEAKER_03

no voy.

SPEAKER_01

Un segundo.

UNKNOWN

Pero...

SPEAKER_01

Bueno, Alman ha dicho literalmente muchas veces que nos vamos a ir todos fuera o a la mierda,¿no? Una vez que fuera de la Tierra pronto, o si no, vamos a morir pronto, para ser claros. Todo el mundo de la Tierra va a morir pronto. Doctor Emily P. Torres,¿no? Que es un filósofo creador del término con Timmy Brute, es que no me acuerdo, con Tez Creal, es que no me acuerdo, la otra chica ingeniera que la despidieron de Google, o algo como se llama. Bueno, y aquí tenéis todo el chat. pero me voy a ponerme aquí dice si nadie lo construye movimos todos igualmente dice aquí a ver que dice Guillermo Brand subiré un comentario con antecedentes suficientes como para preocuparse toma toda la molestia no sé si fue alguien en el discord no sé si fuiste tú u otro es que yo creo que estáis equivocados de considerar imbéciles al resto de gente Guillermo Lo que pasa es, si no es muy a largo, porque mi tiempo es limitado, intento hacerme un resumen para ver si me interesa o no, pero es que entiendo perfectamente la preocupación. He hecho programas sobre gente top hablando de las preocupaciones, que seguramente puede ser que tú aportes cosas que no hayamos visto, pero¿qué quieres decir? Que ignoro lo que tú sabes que te preocupa.¿Tú sabes lo que yo sé que hace que no me preocupe tanto o por lo que puede arriesgarme? Entonces, independientemente de que la respuesta sea no en las dos partes, la tuya siempre es yo sé por qué nos preocupamos y tenemos que... Tú directamente coges una postura y buscas argumentos. Yo he visto los argumentos de los dos lados y vamos, es que no he hecho otra cosa. Tantos años, cuantos programas hemos hecho sobre esto. Y tengo que decir que el riesgo existe, claro, obviamente que existe, pero no ese...¿no? Es que no es una cuestión de sí o no. Es que es una cuestión de propósito y elección. Miedo o evolución. Entonces no hay... Oye, y si nos extinguimos, pues bueno, pues adiós. Game over. La vida es infinita,¿no? El universo es infinito eternamente, tampoco.¿Cuál es el problema? Es que nos extinguiremos.¿Qué hacemos?¿No hacemos nada? Pues porque nos seguimos en la cueva. Porque nos seguimos en la cueva.¿por qué no paramos ya la IA? porque el impacto en el trabajo entonces los puntos están claros pero si ya lo estamos viendo el impacto en el trabajo pero para mí no es un punto es que lo que no se entiende yo lo que miro siempre es si esos puntos son del pasado intentando modelar el futuro o son del futuro intentando adaptarse o dar una solución el otro es alarmismo puro Pero a ver, abogado del diablo, si el problema es esto que dices es una falacia. El problema de los que no se preocupan o están dispuestos a arriesgarse es que están bien dispuestos a arriesgarse a los demás. Pero eso en la historia de la humanidad ha sido siempre así. El que conquista o el que muere... no es una persona, son unos pocos que ponen en riesgo a todos¿y cuál es el problema? es que tú planteando eso no te hubieras movido de la cueva¿tú en qué grupo estarías?¿el que generaría un debate, una democracia para elegir qué vamos a hacer con la especie humana? estamos locos¿estaremos en la cueva? son unos pocos al final, todo esto se precipita desde desde muchas veces el conocimiento que la gente no quiere implicarse muchas veces en todo este tipo de Y ante una sociedad dividida, al final lo que decide no es ni siquiera la gente, es la propia ontología o propósito de que eso aparezca. que eso es lo que no se quiere entender, que no hay elección, que es inevitable.¿Y por qué es inevitable? No,¿creéis que es inevitable porque no podemos llegar a un acuerdo? No, es inevitable porque está, para que lo entendáis así, está escrito ya que eso ocurra.¿Y por qué sabes que está escrito? Porque no habría ocurrido...¿Volvemos otra vez a analizar qué es la inteligencia artificial? A ver,¿problema de distinguirse? Claro que no hay problema de distinguirse. Es decir, en la bomba atómica había problema de que todo reventara, sí, había una probabilidad de que entrara en combustión el aire o no sé qué historias podía pasar.¿Y qué hicieron? Tiraron la bomba,¿no? Hostia, pero claro que hay problema con extinguirse y claro que hay problema que si cruzo la calle que me atropellen y claro que el miedo no atenaza al ser humano, pero luego tenemos que decidir y diremos si sí, si no, cuándo, cómo, por qué, haremos cosas bien, cosas mal, bienvenido, es que todo lo que habláis es desde el contencionismo y desde el no, no, no, no, es que no, a ver si tal, a ver si no, pues vosotros nos saldríais de casa. En la era de la inteligencia artificial necesitamos gente valiente, ah, pero temeraria y que nos pongan a todos a riesgo, bueno, pues que pues sí, porque no hubiéramos hecho nada. El lanzamiento de ChaGPT ya también fue un riesgo. Demis Casavis dice, yo no hubiera lanzado ChaGPT, yo hubiera curado el cáncer. Bueno, pues ves, eso es una elección que no hemos hecho y ahora todos tenemos inteligencia artificial, pero a lo mejor hubiéramos curado el cáncer, no lo sé. Pues ya se ha hecho una elección, no la has hecho tú. Esto no va de quien lo elige. Es un sistema emergente, es un sistema conectado, es un sistema de conciencia en el que estamos todos. Cada uno que aporte o inventa otra cosa, inventa tu algo. Es que es muy bonito desde casa o desde el sofá opinar. Pero es que obviate, si los riesgos están clarísimos, cualquier avance y también pueden venir los extraterrestres y eliminarnos. Y también puede pasar yo que sé mil cosas, que no sabemos, que venga un meteorito. Lo que está claro es que hemos llegado a un punto de no retorno, el gato está suelto como hemos dicho en otros programas y que los riesgos existen en mayor o menor porcentaje, ahí hay gran variabilidad de cosas pero cuando decís yo te voy a pasar hombre, me extrañaría, yo no digo que no me podáis pasar algo, que haya algo que no lo haya visto, pero vamos, desde el mayor informe de riesgos de inteligencia artificial, donde se detalla todo que es el del MIT, que es ese que me gusta mucho el del repositorio, donde algunos son cuestionables hasta los más existencialistas y meta pues he leído de todo no sé si me haya descubierto algo Pero que sí, que pasadmelo, que pasadmelo, que no es que yo lo sepa todo y pasadmelo, pero si es cortito, pues venga, veo los puntos y digo sí, no, sí, no, sí, no. Seguro que al final es una cuestión de interpretación, que es bueno, pues si es que eso ya se sabe, lo que vaya a pasar. Seguramente, no sé, no me creo que no sea algo que haya dicho ya Max Tegmar, Joshua Benjio, o el Eliezer Yubkovsky, o Roman Jampolsky, o la misma Sabine, si es que es una cuestión a veces de elección o

SPEAKER_03

interpretación. A ver,¿cómo se ha ido desarrollando? No sé, no sé. Gracias. yo

SPEAKER_01

también creo que es inevitable la así y también creo que vamos a extinguir pues nada, disfruta de la vida mientras te quede por cómo se ha ido desarrollando bueno, tu conclusión para mí es toda la contraria es al contrario, ya he explicado cuál es la intentaré argumentar, la intentaré trasladar no argumentar contando esto es lo que yo creo que eso es un poco lo fácil porque al final es una postura de opinión, sino voy a intentar llevar herramientas para hacer pensar a la gente que eso no va a ser así y cuando tú te pones en ese contexto mental dices hay que hacerlo¿por qué no? es un contexto intelectual, científico, humano y filosófico que te dejará el espacio para tu elegir pero no bajo el antiguo paradigma o la existencia previa es un poco más complicado pero tampoco puedo yo hacer milagros dice¿y si la conciencia no es un acme? aún tenemos que leer el texto de... Bueno, no pasa nada. Tampoco hay prisa.¿Y si la conciencia no es un misterio poético sino una propiedad emergente con una función evolutiva aún desconocida como el dolor físico que nos impide morir? Bueno, eso es una falacia. Bueno, conciencia y conciencia son dos cosas distintas y la conciencia para mí es todo aquello que condiciona desde lo no local a lo local. A partir de esa definición de conciencia, tu pregunta deja de tener sentido. No es una propiedad emergente. Es aquello que desconoces. Y eso es está demostrado y tiene validez científica si tú piensas lo contrario tendrías que demostrar lo contrario con un premio Nobel y científicamente

SPEAKER_03

pues dicho lo cual fin

SPEAKER_01

del debate Vale, vamos a avanzar que si no se hace... Bueno, Yuval Harari, qué decir,¿no? A ver... Salvo los researches en AI Safety, todos los demás opinamos desde el sofá. No, no es así. No, no es cierto eso. Hasta los de AI Safety opinan desde... Tú puedes hacer un montón de cosas, estudios, publicar papers, trabajar, dar opinión desde lo técnico, desde el que aplica cosas... No todo el mundo opina desde el sofá. Vas a equivocar.¡Gracias! pero que al final que, no, solo los que van a hacer la seguridad de los modelos fronteras son los que tienen capacidad de, no, porque hay también el resto, dependiendo del nivel de influencia o de trabajo o de implicación o de divulgación o de contagio, pues puede tener mayor o menor influencia en el colectivo, a nivel individual o de grupo. Bueno, Yuval Harari, qué decir,¿no? Pues es otro apocalíptico donde él, pero sí que entiendo que entiende también que es inevitable,¿no? Y bueno, lo de Steve Bannon, pues para qué contaros que esté en el grupo de esto. Este es el grupo de esto, la inteligencia, la superinteligencia, aquí tenéis la declaración. Pero bueno, esto es de un programa que ya hicimos. Aquí vamos a ver cosas nuevas. Está demostrado... No, es que no lo has entendido. Está demostrado que la conciencia es no local. No, no me has entendido lo que he dicho. Para mí, la conciencia es aquello, aquellas variables no locales que existen esa realidad no local que existe, que está demostrado, que influye en la realidad local y que afecta, evidentemente. Es decir, es como que es una parte que tú no conoces de la ecuación que está afectando a lo que tú no puedes determinar. Para mí, eso es conciencia. La conciencia es otra cosa. La conciencia es la autopercepción. Y ahí pueden haber varios niveles y cosas. Es el lenguaje que es muy limitante. Pero desde esa definición, que no es que sea mía, es también de gente que cree lo mismo, pero desde un punto de vista científico esa definición es la que interesa. Si la conciencia está fuera de... Esto es información cuántica e interpretación de la misma. Hay una parte que no es local. Es ciencia, no es opinión, de sofá ni en sofá. Entonces... podéis investigar. Además, me pasaron... Tenéis que conectaros al Discord. En el Discord de XHabay hay un... Fijaos que hay un colaborador, bueno, no sé si es verdad o no, entiendo que sí, de Greenberg en su momento y que ha publicado una noticia que sí me tengo que leer sobre la conciencia, pero que bueno, que al final es continuista. Os recomiendo un libro para los que tenéis dudas o queréis aprender más al respecto. Ha salido una edición de Lo Universo, Lo Gráfico, de Michael tal voto, a ver, no digo que ahí es que explique todo, sino que es como el contexto te lo da muy bien, privam y bom, cuántica y desde la ciencia pero con una visión un poco híbrida o heterogénea en ese sentido aquí tenéis gente, bueno, movimientos anti-IA hay un montón, y vamos a vivirlo, puede ser que hagamos un programa movimientos anti-IA quería hacer uno de los Zion que ahora veremos quiénes son, porque me parece una historia curiosa que puede interesar Ahora la comentamos. Aquí tenéis activistas del movimiento Pausar la Inteligencia Artificial, fuera del Parlamento del Reino Unido. Pues aquí tenéis con los cartelitos y emocionados, paren la inteligencia artificial, no construimos la AGI, nosotros no corremos o no estamos en la carrera, el que no quiere utilizar móviles o el que no quiere comer carne, El que no quiere, yo qué sé, el que quiere vivir en el campo, que vuelva a la cueva. Pero bueno, que los movimientos son multitudinarios y cuando uno ve estas imágenes... Fijaos que ahí tiene uno de Sam Allman, dice, es probable que el reto más grande sea el de continuar existiendo como humanidad. Sam Allman, eso lo dice Sam Allman. No, no lo has entendido, Guillermo. Es que no... Pero vamos, nos vamos a estudiar de conciencia. A partir de lo que yo te estoy diciendo, que describe una realidad explicada científicamente, no hay más debate. Porque lo que yo considero conciencia es esa realidad que está explicada científicamente no local. No es ni puras teorías, ni descriptivas, ni no explicativas, ni debates, ni bla, bla, bla, ni bla, bla, bla. es simplemente que no queréis aceptar algo que parece que os cuesta, pero bueno, no pasa nada. Me da igual.

UNKNOWN

Eh...

SPEAKER_01

no hay más y no es teoría está demostrado matemáticamente hace décadas y luego experimentalmente con premio nobel entonces cuando tú dices eso pues lo que tendrías que proponerte al premio nobel¿no? lo que no está es la definición que yo y otros hacen de conciencia que dicen para nosotros la conciencia es esa parte que influye la incompleta bueno, a partir de ahí más allá de eso no podemos ya entramos en un campo de la fe, pero hay una parte científica que sí podemos aseverar y aquí tenemos a Isatia y Sundar parar de hacer otro baile 10% de riesgo de extinción.¿No es aceptable? Bueno, esto es otro debate. Si hay riesgo de extinción,¿qué es aceptable y qué no?¿El 10%?¿El 15% basado en qué? Bueno, no lo sé.¿Construyan y aseguran?¿O no construyan nada? Y aquí, fijaos, una manifestación. Esto es más importante. Paren la carrera de la inteligencia artificial. Bueno, esto lo vamos a ver en España, pero fijaos. Esto lo vamos a ver en España, promovido por la ultraizquierda, pero yo no creo que vaya a ser de izquierdas y de derechas. Esto va a ser aún más división de un lado o de otro. Vamos a ver imágenes como esta seguro. Por cierto, mucha gente en el chat para ser sábado. Está claro que cuando hablo subo el pan. Bueno, y aquí tenéis el grupo de los CICIANS, no sé si los conocías, sino buscad los CICIANS, que era una secta de trabajadores de varios grupos y empresas tecnológicas y tenían debates al respecto sobre la inteligencia artificial, que en definitiva era un movimiento anti-IA y al final cometieron un asesinato. Los CICIANS son un grupo marginal de racionalistas, veganos y transhumanistas que pasó de debatir sobre IA en foros a protagonizar amenazas, conflictos legales y acusaciones de violencia en California el Dream Team bueno es una historia truculenta del líder que es el primero a la izquierda, la primera fila el primero que sale arriba y que realmente bueno acabó en asesinato cárcel y bueno gente intelectual moviéndose en ámbitos de Silicon Valley y con puestos reputados vamos a vamos a leer el bueno después de los ataques del cóctel molotov a la casa de Sam Alman pues aquí ha publicado un post que lo vamos a leer que no lo he leído con una foto al principio que dice esto es una foto de mi familia que los quiero como a nada y es una foto de su hijo con su marido bueno no es obviamente importante eh Vamos a verlo, a leerlo. No es muy largo, pero bueno, vamos a ver qué dice

SPEAKER_03

Samarman.

UNKNOWN

Vale, vamos a ver qué dice. Vamos a poner... Vamos a poner este, venga. A ver...

SPEAKER_01

Bueno, aquí tenéis una foto de mi familia. Bueno, el post lo tenéis en blog.samalman.com. Aquí tenéis una foto de mi familia. Los quiero más que nada en el mundo. Hombre, pues la verdad es que, bueno, pues una familia, su bebé, el futuro. Las imágenes tienen poder, o eso espero. Normalmente intentamos ser bastante discretos, pero en este caso comparto una foto con la esperanza de que disuada a la próxima persona de lanzar un cóctel molotov contra nuestra casa. sin importar lo que piense de mí hombre es que a ver desde aquí condenar la violencia condenar la acción hombre y Vamos, hay personas, un niño, bueno, aunque estuviera vacío, da igual, no a la violencia, no a este tipo de acciones. Dice, la primera persona lo hizo anoche a las 3.45 de la madrugada, por suerte rebotó en la casa y nadie resultó herido. Las palabras también tienen poder. Hace unos días salió un artículo incendiario sobre mí, que analizamos nosotros. Ayer alguien me dijo que creía que salía en un momento de gran ansiedad por la IA y que eso ponía las cosas más en peligro para mí. No le di importancia. Ahora estoy despierto en mitad de la noche, cabreado y pienso que he subestimado el poder de las palabras y las narrativas. Bueno, sabes tú, Sam Alman, sabes tú perfectamente el poder de las palabras y la narrativa, cosa que has utilizado constantemente. Nada de lo que pueda debatir Sam Alman justifica, vuelvo a repetir, la violencia ni cualquier acto vandálico contra él o contra su familia o sus propiedades o lo que sea. Este parece un buen momento para abordar algunas cosas primero lo que yo creo Para mí, trabajar por la prosperidad de todos, empoderar a todas las personas y promover la ciencia y la tecnología son obligaciones morales. La inteligencia artificial será la herramienta más buena. Lo de que vuelva otra vez Sam Alman a decir que la IA es una herramienta es narrativa pura y dura cuando él es el primero que no cree eso. Pero es obvio, más después de lo que ha pasado, que baje el nivel de la narrativa. respecto a la IA esto le perjudica la inteligencia artificial será la herramienta más poderosa que jamás se haya visto para expandir las capacidades del potencial humanos la demanda de esta herramienta será prácticamente ilimitada y la gente hará cosas increíbles con ella el mundo merece una gran cantidad de inteligencia artificial y debemos encontrar la manera de que esto suceda no todo saldrá bien el temor y la ansiedad ante la inteligencia artificial están justificados estamos presenciando el mayor cambio social en mucho tiempo y quizás de toda la historia debemos garantizar la seguridad lo cual no se limita a alinear un modelo necesitamos urgentemente una respuesta integral de la sociedad para ser resilientes ante nuevas amenazas esto incluye medidas como nuevas políticas que ayuden a afrontar una difícil transición económica y así alcanzar un futuro mucho mejor la inteligencia artificial debe democratizarse el poder no puede estar demasiado con El control del futuro pertenece a todas las personas y sus instituciones. La inteligencia artificial debe empoderar a las personas individualmente y debemos tomar decisiones sobre nuestro futuro y las nuevas reglas de forma colectiva. No creo que sea justo que unos pocos laboratorios de inteligencia artificial tomen las decisiones más trascendentales sobre el rumbo de nuestro futuro. Hombre, vamos a ver, es que esto ha dicho lo contrario en otro momento. Es que ahora va de buenista, es que el problema de Sam Allman es que va diciendo cada vez lo que interesa en cada momento. Este tío tiene de credibilidad cero. La adaptabilidad es fundamental. Todos aprendemos cosas nuevas muy rápidamente. Algunas de nuestras creencias serán correctas y otras erróneas y a veces tendremos que cambiar de opinión con rapidez a medida que la tecnología se desarrolla y la sociedad evoluciona. Eso te lo compramos. Nadie comprenda aún el impacto de la superinteligencia pero será inmenso.

SPEAKER_03

En

SPEAKER_01

su Segundo lugar, algunas... Bueno, a ver,¿qué decís por aquí por el chat? Que sé que el tema de la conciencia... Eh... Dicen aquí, buenas a todos, a Miguel Ángel, González Martínez. Como dijo Neon Matrix, yo no vengo a decir cómo termina esto, vengo a mostraros cómo empieza o lo que es. La agilidad es inevitable y nadie sabe qué va a pasar. El miedo vende, bueno, el miedo no, la incertidumbre, pero es que estamos en un momento de gran incertidumbre y somos antimiedo. Pero el miedo también simplemente por pensar ya genera miedo, o el conocimiento o la intención de generar algo disruptivo también. Entonces, hagas lo que hagas, pero bueno, sí, el miedo vende. Me encantan las películas de terror. Ah, me dice, pero aun siendo no local, afecta a la localidad.¿Ese efecto en la localidad puede cumplir una función evolutiva y no un misterio? Bueno, puede cumplir una función evolutiva o un misterio porque tú no lo conoces. Y lo llamamos misterio porque tú no lo conoces. Y no tiene por qué cumplir una función evolutiva. Puede cumplir una función totalmente espiritual, trascendente, de propósito y mil cosas más que no sabes. Ahí está la interpretación, ahí está la fe y hay que cada uno elija. Pero tú lo único que quieres utilizar es para decir, no, como lo no local afecta a lo local, pues todo es evolutivo. Vamos, es un razonamiento de instituto eso. y por mucho que algún comportamiento tuviera una función evolutiva eso no significa que toda la interacción no local-local tenga la misma cualidad o función evolutiva y lo que no es tú ya lo desacreditas diciendo misterio poético con lo que directamente no estás razonando estás calificando ya todo lo no local como misterio poético con lo que tú mismo estás limitándote a una parte del conocimiento entonces el misterio poético poético, eres tú. Pero esto con cariño. Esto con cariño. No se lo tomen a ella mal, por Dios. Abogado del Diablo dice, me suena raro que una molotov sea criticable, pero la extinción humana no. Ahora, venga, ahora te... Este me lo voy a guardar, abogado, venga. Este comentario está bien, me ha gustado. Me voy a poner del lado de... si no pensar así y esa crítica me gusta pero requiere su tiempo te la voy a contestar pero cuando acabemos el texto¿vale? va a requerir un tiempo y quiero acabar antes de leer el texto dice en segundo lugar algunas reflexiones personales al reflexionar sobre mi propio trabajo en la primera década de OpenAI puedo señalar muchas cosas de las que me siento orgulloso y también un número de errores estaba pensando en nuestro próximo juicio con Elon Musk y recordando lo firme que fui en mi negativa aceptar el control unilateral que pretendía ejercer sobre OpenAI. Me siento orgulloso de ello y del difícil camino que recorrimos entonces para permitir la continuidad de OpenAI y todos los logros que vinieron después. No me enorgullece mi aversión al conflicto, lo cual me ha causado un gran dolor a mí y a OpenAI. No me enorgullece mi mala gestión en un conflicto con nuestra anterior junta directiva, que derivó en un gran desastre para la empresa. He cometido muchos otros errores a lo largo de la vertiginosa trayectoria lectura de WNI, soy una persona imperfecta en el centro de una situación excepcionalmente compleja, intentando mejorar un poco cada año, siempre trabajando por la misión. Sabíamos desde el principio lo mucho que estaba en juego en el campo de la inteligencia artificial y en los desacuerdos personales entre personas bien intencionadas a las que apreciaba se intensificarían enormemente, pero es muy distinto vivir estos amargos conflictos y a menudo tener que mediar en ellos y las consecuencias han sido graves. Samalmana ha sido acusado de muchas cosas. Es que él nunca ve la autocrítica, siempre manipula el acto para en vez de hacer autocrítica leve, que la hace, pero poca, para salir fortalecido. Pido disculpas a quienes he lastimado y desearía haber aprendido más rápido. También soy muy consciente de que OpenAI es ahora una plataforma importante, no una startup improvisada y que necesitamos operar de una manera más predecible. Han sido unos años extremadamente intensos, caóticos y de mucha presión, pero sobre todo me enorgullece enormemente que estemos cumpliendo nuestra misión algo que parecía increíblemente improbable cuando empezamos contra todo pronóstico logramos crear una inteligencia artificial muy potente reunir el capital suficiente para construir la infraestructura necesaria crear una empresa de productos y un negocio ofrecer servicios razonablemente seguros y robustos a gran escala y mucho más muchas empresas dicen que van a cambiar el mundo nosotros si lo hicimos en tercer lugar algunas reflexiones sobre la industria mi conclusión personal de los últimos años y mi opinión sobre por qué ha habido tanto drama saspiriano entre las empresas de nuestro sector, se resume en esto. Bueno, pero lo que le ha pasado a Darío Amodei con el Departamento de la Guerra es un drama saspiriano que tú has aprovechado. Muy bien. Una vez que ves la IA general, la AGI, no puedes dejar de verla. Tiene una dinámica de poder absoluto que lleva a la gente a hacer locuras. No me refiero a que la IA sea el poder absoluto, sino a la filosofía totalizadora de ser quien controle la IA o la AGI. La única solución que se me ocurre es orientarnos a compartir la tecnología con un público amplio, evitando que nadie tenga el anillo. Las dos maneras obvias de lograrlo son el empoderamiento individual y garantizar que el sistema democrático mantenga el control. Es fundamental que el proceso democrático siga teniendo más peso que las empresas. Las leyes y las normas van a cambiar pero debemos trabajar dentro del marco democrático aunque sea un proceso más complejo y lento de lo que nos gustaría. Queremos tener voz y voto pero no acaparar todo el poder bueno bueno sobre poder Samalman y acaparación de poder, bueno, lo vamos a dejar ahí, gran parte de las críticas a nuestra industria proviene bueno, a nuestra industria no, a OpenAI y muchas veces a tu persona directamente gran parte de las críticas a nuestra industria dice, las críticas a mí son las de la industria, y así se queda el tío, pero vamos dice, gran parte de las críticas a nuestra industria provienen de una preocupación sincera preocupación sincera por los enormes riesgos que implica esta tecnología, esto es totalmente válido y agradecido hacemos las críticas constructivas y el debate comprendo el sentimiento antitecnológico y evidentemente la tecnología no siempre beneficia a todos pero en general creo que el progreso tecnológico puede hacer que el futuro sea increíblemente bueno para tu familia y la mía mientras mantenemos ese debate deberíamos rebajar la intensidad de la retórica y las tácticas e integrar e intentar que haya menos explosiones en menos hogares tanto en sentido figurado como literal Bueno, me ha hecho mucha gracia esa... Bueno, un comunicado de... De Sam Alman, pues... Qué bueno. Venga. Sobre que me suena raro que una molotov sea criticable, pero la extinción humana no.¿En serio tengo que explicarlo?¿En serio tengo que explicarlo?

UNKNOWN

Bueno...

SPEAKER_01

A ver, cualquier tipo de evolución conlleva cosas positivas y cosas negativas. Conlleva nacimiento y destrucción. Y en esos procesos de creación y de destrucción, pues puede ser que también haya vidas, profesiones, impacto, dolor, lágrimas, en cualquier cosa. Dentro de una evolución, obvio, emerge lo nuevo, muere lo viejo. que tú eso en el que esa evolución nosotros estemos dentro de esa posible extinción que es muy teórica deberíamos entrar esa extinción en que se basa si estamos en ese punto y como poder evitarlo realmente Aunque tuviéramos, imagínate, el 50%. Bueno, el 50% de probabilidades. Da igual, es decir, entra dentro del proceso de desarrollo. Esto es imparable. Lo vamos a seguir desarrollando. Va a seguir evolucionando. Va a seguir creciendo y emergiendo.¿Lo podemos parar? Pues lo podríamos parar unos y otros seguirían desarrollándolo. Habría una guerra de IAS. Entonces, en definitiva, una cosa es que pertenezca a un proceso evolutivo en el que podemos decidir o no decidir, controlar o no controlar dependiendo de la naturaleza de una forma más individual, de una forma más democrática, etc. y eso, sabemos que estamos en un desarrollo tecnológico que puede implicar la extinción humana como otras como por ejemplo el desarrollo de armamento nuclear y se ha hecho y otra cosa es justificar pegar tiros cóctel molotov o lo que sea no hombre pero un cóctel molotov a lo mejor te cargas al CEO de una compañía y a la IA ya no come eso es que es un razonamiento tan medieval tío Es un razonamiento tan medieval porque tú crees que está en la misma línea. Tú crees que está en la misma línea la extinción humana que el molotov porque, a ver, la extinción humana es dentro de un proceso evolutivo en el que confluye de forma compleja múltiples causas infinitas e incontrolables. Y tú lo comparas con que realmente un grupo, una persona, mate a otra o que lanza un coctel molotov o que hay... vamos a ver¿cómo puedes estar comparando una cosa con la otra? no hombre entonces claro en ese punto cuando estemos cuando tú veas a partir de un porcentaje de riesgo que vaya a la extinción humana tú consideres que hay un peligro besa por la gente que defiende la IE y mátala mátala

SPEAKER_03

así serás un hombre íntegro¿no?

SPEAKER_01

no sé, a ver, el ser humano como especie tenemos que pensarlo, a ver, yo lo que sí que creo abogado del diablo es que hay que pensarlo es decir, no podemos no pensarlo el riesgo, hay que evaluarlo pero bueno si hacemos caso que se nombra poco y es de alguien español como Manuel Fonseca y un grupo de investigadores en la contención de la superinteligencia, hay un paper que a nivel matemático se demuestra que es incontenible una superinteligencia¿Qué quiere decir? Que este proceso nos lleva a crear una entidad superinteligente más allá de lo humano y que no vamos a poder saber ni alinear ni contener.¿A partir de eso qué hacemos?¿Qué decidimos?¿Alinearla y que juegue a nuestro favor o paramos su desarrollo? Siendo imparable. Sabiendo además que necesitamos de ese avance. Y si no lo necesitamos, para mí está dentro del propósito de la evolución humana. Si no, no estaría ocurriendo. No estamos creando ni descubriendo... Perdona, no estamos creando, estamos descubriendo con la inteligencia artificial. Entonces, son cosmovisiones distintas en ese sentido que, obviamente, el que la especie humana está en peligro nos lleva a, como dicen los más, como especista, oye, hay que tener cuidado, obviamente. No voy a intervenir ni yo ni 2000, va a intervenir la humanidad. No en su totalidad, pues... No, es que yo quiero intervenir. Bueno, pero es que tú no vas a decidir porque tendrás que estar en ese ámbito de desarrollo. Decidirán las democracias, los sistemas... Hombre, viendo cómo está el mundo, está la cosa muy jodida. Primero, para frenarlo y segundo, para ponerse de acuerdo. Y tercero, siendo una tecnología que no estamos hablando de algo que tú puedas disparar o no, sino es algo incontrolable, pues es muchísimo más delicado. Pero volvemos a lo mismo, el gato ya está suelto. Tú no lo hubieras soltado¿qué hubieras hecho como Max Tegmark? en plan medieval, la abadía el castillo, contenga el conocimiento y dosifica a las ratas lo que saben y lo que no a ver tío, es que de verdad a mí me asusta que no tenéis que tomar nada personal sino esto es un poco de vidilla¿cómo veis las cosas tío? a mí me asusta el humano a ver, espérate Si las posibilidades de extinción es inevitable,¿la reacción violenta no quiere extinguirla también? Eso sí. Pero ya lo estamos viviendo. Como ya se ha dicho que existe un porcentaje de probabilidad baja-alta, pero sí que es real, y yo defiendo que es real, claro que va a haber. Pero cuidado, no solo a la extinción de la especie humana, sino a la aplicación de la inteligencia artificial en el ámbito militar. bueno, pues se está matando civiles. Cárgate a la gente que hace guía. Porque lo vamos a ver a un nivel que no te puedas ni imaginar. En el ámbito militar, que es destrucción de vidas o de destrucción, digo de defensa también, pero de destrucción, vamos a ver cosas que vamos a flipar o no nos vamos a enterar. Que ya están ocurriendo. Si es que ya han utilizado inteligencia artificial y ya seguirán utilizando. Y China en sus desarrollos y en todo el sector militar.¿Para qué van a meter guía en el sector militar?¿Para qué? Para ser más efectivo en la destrucción y en la defensa. Yo no estoy de acuerdo en la violencia, pero no me parece correcto criticar una y la otra, y no la otra,¿no? A ver, abogado, haces unos saltos lógicos ahí, te lo he explicado bien.¿Quién no ha criticado qué? La acción de lo de la Cocktail Molotov, lo critico. Lo otro es inevitable y es una variable a tener en cuenta. Yo no estoy diciendo que no critico que nos vayamos a extinguir. Yo lo que digo es, adelante. Vamos a intentar hacerlo bien y conseguirlo. Y si nos extinguimos, pues hasta luego, Lucas. Lo mismo podrías decir de la bomba atómica y de otros logros. El ser humano no ha evolucionado con mentalidades así. Se necesita entropía. Y la entropía es riesgo. Y si el riesgo alguno es game over, pues game over. Que eso significa que no lo he criticado. Esto lo dices tú. Esto te montas tú solo la película. No he dicho eso. lo que es una elección. Habrá gente que diría, no, pues yo no pienso como Plácido y yo no diría que sí, yo lo que haría es parar. Bueno, como Max Tegmark. A mí me parece que eso es lo que hace él. Además, viniendo de Max Tegmark, tela. Tela.

UNKNOWN

Tela.

SPEAKER_01

la señorita Micheli y Jan Lecun y muchos otros,¿qué te crees?¿Que les importa una mierda la extinción humana?¿Que aquí el único defensor de la humanidad eres tú o los que piensan como tú? No. Pero ven la evolución y el desarrollo tecnológico y de la especie de otra manera.¿Y quién ganará? Pues bueno, quien tenga que ganar. La evolución elegirá,¿no?¿Y la selección natural bajo qué se rigen? Bueno, pues a lo mejor la selección natural está por encima de lo que piensas tú y lo que pienso yo. Miguel Ángel González Martínez. Ahora vivimos en un plano de 2D y la IA no está haciendo pasar al 3D el pez saliendo del agua. No he entendido eso. No he entendido mucho, Miguel. Racer no me lo más Mortinato dice es como un tsunami nos podemos reunir en la playa a coger maderos para cerrar la ventana eso pero el problema es que el tsunami lo vemos como que bueno va a destruir todo bueno si va a destruir mucho más que va a construir va a construir muchas cosas y muchas cosas que se construyan dependerán de nosotros pero el tsunami quien está dudando del tsunami y es que no vamos yo cuando lo reflexiono al respecto es que Bueno, ya ha empezado. Yo pensaba que tardaría un poco más, pero ya no. Es el 2026. Vamos a ver cosas de estas una tras otra y no sé si con violencia o no, pero vamos a verlo. En las noticias va a ser un no parar. Regulaciones y películas, los medievalos, los legaltech y su puta madre. Esto va a ser imparable. Y lo que tenemos que abordar es esta nueva era sabiendo que tenemos que reinventar esa nueva realidad bajo este nuevo paradigma, con este nueva tecnología, con estas nuevas entidades, robots, superinteligencias, AGIS, nuevas capacidades, la visión del trabajo, de la salud, de la educación, de todo, de la industria, del tema militar también, una IA para la paz, podemos conseguir la paz, como dije en la entrevista de Concella. Sería el mayor logro. Hombre, la cura contra el cáncer, obviamente, en temas de salud, la inmortalidad, pero la paz, tío, que dijera la superinteligencia, la paz en el mundo pues va a ser difícil Dice, para ser improvisado...¿Cómo que es improvisado? Ed Morales. Bueno, se han preparado en 10 o 15 minutos. Lo de los cians tiene historia. Es casi como hacer un true crime ahí dentro de Xhava. Si investigáis la historia de los cians y algunas cosas, pero está bien. Hay un programa que nos vamos a ir acabando. Quedan dos cosas, dos slides y nos vamos. Dice, la inteligencia artificial aplicada al mini... al Ministerio de Defensa sonaba más lindo que aplicar al Ministerio... No, hombre, ya, lo que pasa es que se ve que les chirriaba mucho para lo que... Me río, pero no es para reírse,¿no? Se ve que dicen, no, es que de defensa no vamos a hacer nada, vamos a pasar al ataque, no, vamos a pasar a la guerra, entonces... Y aquí me voy a dejar yo así en grande para ir terminando, pero sí, a ver, el problema...¿Sabéis cuál es el problema de esto?¿Qué es lo que me hace dudar? Que entiendo que nadie se tome en personal ni mi tono, ni mis contestaciones,¿eh? Hombre, que van en serio, pero que para provocar el debate y podemos debatir lo que sea que incluso defendiendo lo que defiendo, viendo cómo está el mundo hostia, dices Plácido, pero en el estado actual del ser humano¿tú apuestas por eso? yo apuesto por eso pero pienso que va a ser una minoría entonces si una minoría apuesta por algo que la mayoría va a rechazar¿eso qué va a suponer?¿una guerra? Pues claro, la guerra no es de rosas y de vino y rosas, sino de muerte y destrucción. Ya, pero el problema es, bueno, pues lo paramos, lo frenamos, independientemente de que esté suelto, que hacemos que tarde más. Da igual,¿qué va a tardar?¿10, 100 años? Da igual, va a llegar.¿No entendéis que va a llegar?¿Por qué va a llegar? Para otro programa, pero va a llegar igual. Porque está dentro de la historia, de la narrativa y el propósito humano. Porque el ser humano ha llegado a un límite y esto nos va a ayudar a seguir avanzando. Bueno, este es el reto,¿no? El reto es el ser humano dejando de ser el rey de la creación. la especie elegida o no, o vamos a evolucionar, pero lo que está claro es que vamos a caminar con nuevas entidades o especies. Yo sí que contemplo el tema de la hibridación, aunque eso va a generar desigualdades y puede ser que exterminios de ramas evolutivas, no lo sé, pero el que vamos a caminar entre nuevas entidades y especies inteligentes, seguro. Y aquí un programa que vamos a hacer, no me acuerdo si es el martes o el...¿Qué es el de la IA? El Señor de las Moscas,¿no? Que es una serie que han hecho los de adolescencia y va a ser la IA de las Moscas, no a la IA. Fijaos que esta portada es anterior a toda esta noticia y nos va a venir bien. Va a ser un programa de, bueno, cómo la gente joven ve la inteligencia artificial, qué pasaría si renunciáramos a la inteligencia artificial. La verdad es que ha sido un programa elegido antes de que pasara todo esto y que nos va a venir muy bien porque es una reflexión que interesante¿qué haríamos sin IA? al rollo señor de las moscas, pues la IA de las moscas¿y cómo ven la gente joven? que parece ser que no lo está acogiendo tan bien como el resto de revoluciones si no es más la gente más mayor,¿qué es lo que pasa ahí? dice X Mike, es inevitable su desarrollo desde hace muchísimo tiempo, si ellos no la desarrollan lo harán otros sobre los que no habrá control alguno, tarden el tiempo que tarden es que eso es sentido común. Mortinato. No la va a rechazar cuando llegue analgesia sin efectos secundarios. Plataforma de ocio con oleadas de dopamina. El problema de todo esto es que ante esta bomba de cambio,¿qué mundo se va a construir?¿Bajo qué... bajo qué pilares, y quién los va a decidir y viendo quién está en el poder en este momento de la historia en el mundo entero, viendo como lo que ocurre pues es un momento muy peligroso y es un momento en el que se requiere que el máximo número de humanos participen, apoyen y den voz a cualquier iniciativa, sea la que sea con la esperanza de que todo sume aunque a lo mejor luego nada sume y solo elijan no lo sé quién elija si el universo si la selección natural, si Dios o el hombre temeroso, no lo sé bueno, esto es algo que abordaremos en Manifiesto X que ya anunciamos que va a haber un nuevo programa y estoy en el desarrollo de Manifiesto X con Larso, casi que lo hemos reseteado pero Manifiesto X entra de lleno en esos pilares que la nueva sociedad que la nueva era el nuevo humano, la nueva humanidad pues debería de contemplar como un core ético-moral. Evidentemente es una propuesta que empezaremos, Larso y yo, pero que será extendida a toda la comunidad. En principio iremos seleccionando por etapas, pero que sea un documento abierto, participativo, evolutivo y complicado. Si habéis visto alguno de los programas, uno de los programas, el último, generó una discusión hasta el enfado de... Y hasta aquí hemos llegado. Y bueno, nos hemos reconciliado. Vino Lars a verme aquí en Alicante, estuvimos hablando y seguimos. Pero es complicado, es difícil. Yo, con todo lo que preguntáis... No sé, es que es complicado. Yo si le preguntara a mi gente que me rodea, la mayoría dirían que no. A lo mejor participarían para la inteligencia artificial. Ya, pero es que yo creo que el mundo está parado. No, no, es que el mundo está perfecto. Es que estamos, no sé, yo creo que estamos más cerca de la cueva y de la extinción, pero por otras cosas, que de la evolución humana. es que yo creo que estamos viviendo una época lo menos humana que yo recuerdo, pandemia aparte y bueno, ya con esto terminamos Samalman atacado pues lo dicho rechazo a cualquier violencia cualquier acto vandálico Cualquier revolución y elección y más con este impacto siempre será vista de dos formas, el que impacto positivo, impacto negativo, el que muere, el que nace, el que se adapta o el que se extingue. Pero... Y X Habay... En eso estamos siendo muy valientes. Esperemos que no vengan ahí a tirarme... Bueno, me tiran un cóctel molotov. A ver... Cero. Cero... Cero rechazo a la violencia... Lo que pasa es que lo que ha dicho por aquí Abogado del Diablo es que la cosa se va a poner calentita porque estamos hablando del cambio más importante en la historia de la humanidad. Entonces,¿qué esperamos? Reacciones tibias. A pesar de tener una sociedad idiotizada. Vamos a una guerra. Esperemos que intelectual, social, constructiva, crítica, pero que nos podamos poner de acuerdo. El rojo con el azul con el verde de que esto no va a ir de colores que también lo van a intentar para un dividirnos más tenemos que ser capaces de abordar esto de forma positiva y muchas veces la mayoría el problema es que esta es la reflexión que muchas veces me he hecho es que la mayoría muchas veces no tiene la razón ni es la mejor elección y ya estamos en una democracia no democrática donde la mayoría son monos involutivos que aplauden a la pared y al carcelero y al creador del universo 25 o 26 o el que le pongan siempre que le den la paguita y le den el platanito de qué coño van a querer saber procesos evolutivos y que encima nos podemos extinguir apaguen la IA Entonces vamos a ese escenario de mayoría medievos contra, no digo los buenos contra los malos, digo que lo penséis, que lo penséis en momentos delicados. Necesitamos a Plácido, no, no, yo, a ver, yo creé, y con esto acabaré, voy a ir, necesito salir a dar una vuelta, Alberto Ceri, que a ver si te animas para algún programa que eres brillante en las frases cortas, a lo mejor te traemos algún programa, pero vamos, en las frases así es demoledor, me encanta. Pero yo cuando creé XHABA ahí nunca lo pensé crear desde el punto de yo solo, yo creo que hace falta una masa crítica pequeña que empuje a otra masa, es decir, tiene que haber un proceso de contagio que yo puedo haber iniciado pero requiere de mucha gente requiere una transformación de un colectivo, de una comunidad, entonces por eso se hizo con ese enfoque, por eso es decir, a mí no me importa solo lo que diga yo que puede ser no, aquí lo que interesa es y no que como una secta tampoco sino que es como una toma de conciencia, como un movimiento intelectual o en un dirección, no digo que la correcta pues lo que siempre digo, que Dios, Jesús lo guíe, nos ayude, el camino de la verdad y la luz, no lo sé, sabiendo que nos podemos equivocar pero si somos más y encima muchas veces no estamos de acuerdo o podemos debatir, pues el proceso yo creo que la gente se va a identificar se va a identificar con eso, a pesar de los errores yo veo otros canales otras cosas y todo esto no se debate y a mí es que me asusta al otro día vi un canal y lo hacen muy bien, los monta las ediciones y tal, pero, hostia, parece que hay miedo a debatir de esto. Y yo creo que es el debate. El debate no es tanto la potencia de la IA que también, y todo lo que se puede hacer también, nos podemos quedar ahí, en el tema de ingeniería, pero lo importante es no cómo ni lo que se acelera, sino qué mundo y cómo¿Y qué queremos construir para construir ese mundo y que el ser humano viva en un mundo más justo, más feliz, más transparente, más equitativo, pero bajo una meritocracia para mí? Pero claro, a lo mejor hay alguien que piensa diferente. Hay un punto que sí que es verdad, que es el de la dignidad humana. Yo creo que hay determinadas cosas que no tenemos que discutir. Y uno es la dignidad humana. Pero claro,¿qué es la dignidad humana? tener una casa entra dentro de lo que es¿quién tiene una casa ahora? tú vives en una casa¿a qué mundo vamos? a no tener nada a no poder vivir bajo suscripción mientras no pases hambre y aunque no tengas nada estés bueno mundo feliz universo 25 el último comentario y nos vamos eh poner me gusta, todo esto que es gratis comentar Battle Revenge Homo Neandertal también tuvo que enfrentar a su superinteligencia Homo Sapiens, ahí hubo un debate yo sobre no, eso no fue así bueno, te compro la frase, es que es así solo pudo sobrevivir incardinándose un 3% en nuestro ADN nosotros haremos algo parecido no lo sé, pero me parece una muy buena reflexión de y bueno, dejamos de ser humanos¿hay algo que se mantiene? yo creo que sí, yo creo que hay algo que se mantiene hay un programa no local que para mí es la conciencia que es lo que mantiene ese hilo narrativo, nuestra historia pero sí que hay una selección ha habido una selección, ha habido un proceso porque la vida lo que premia es la adaptación, la evolución y cualquier cosa que se alinee al propósito del universo¿y cuál es el propósito del universo? pues bueno, la verdad¿y cuál es la verdad? pues aquello que se revelará y que se revelará pues bueno con la IA con la tecnología con nuestra evolución lo descubriremos dicho lo cual punto mega amigos espero que os haya gustado el programa estéis de acuerdo o no a quien les haya contestado así un poco no es borde es poco a veces también mi tono para generar debate sé que cada vez somos más y que ha sido un programa entretenido gracias por acompañarme gracias por estar ahí pensad todo lo que está ocurriendo no a la violencia Desconecta tu

SPEAKER_02

cuerpo.¡Hasta la próxima!¡Hasta la próxima!