xHUB.AI
En la era de la Inteligencia Artificial, la aplicación en cualquier escenario supone el mayor debate y más importante para el ser humano y su futuro.
En el podcast de xHUB.AI hablamos sobre inteligencia artificial y otras ciencias transversales, su aplicación a diferentes sectores y soluciones, con los mejores speakers y especialistas.
La Inteligencia Artificial cambiará el mundo y nosotros queremos contartelo.
Te lo vas a perder?
xHUB.AI
T6.E070. INSIDE X SAM ALTMAN ¿Podemos confiar en él? (Episodio 2)
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
# TEMA
SAM ALTMAN ¿Podemos confiar en él? (Episodio 2)
+Análisis noticia The New Yorker
# PRESENTA Y DIRIGE
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai
# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.
# REDES SOCIALES
🌐 youtube : xhubai
🌐 X : xhub_ai | placidodomenech
🌐 twitch : xhub_ai | placidodomenech
🌐 instagram : / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.
# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641
# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641
# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬
Conectando. Tu cuerpo. Conectando. Tu mente. Sincronizando. Tu alma. Entrando en la simulación. Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.
SPEAKER_02intentes doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.
SPEAKER_00¿Qué verdad?
SPEAKER_02Que no hay cuchara.
SPEAKER_01¿Que no hay cuchara?
SPEAKER_02Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.
SPEAKER_00Hola, buenas tardes amigos.¿Qué tal?¿Cómo estáis? Soy Placio Domènech y hoy tenemos un nuevo InsideX que es continuación del de ayer. Bueno, no sé si necesitaremos un episodio más o con este será suficiente pero creo que vamos a necesitar al menos uno más.¿Y de qué va este episodio 2? Pues sobre Sam Allman y cómo podría controlar nuestro futuro y si podemos confiar en él una noticia de New Yorker que bueno ha tenido mucha difusión que además cuenta muchísimas cosas a nivel interno de la historia de Open AI de Sam Antman y que bueno casi sería un complemento o suplemento de ese libro que os aconsejo del Imperio de la IA que la autora no me acuerdo Lo vemos enseguida, de Karen Howe. Es un libro que os recomiendo. No estoy muy de acuerdo en todo lo que dice, ni con algunos de los valores de la autora que defiende con uñas y dientes, pero bueno, no tenemos por qué estar todos de acuerdo. Y sí que es un libro que recomiendo y que considero casi imprescindible. Así que hoy seguimos leyendo. He visto una crítica hoy que me ponían en YouTube. No, bueno, es que este episodio es solo leer. Bueno, a ver. Hacemos episodios... Y de tipos de contenido de mil cosas,¿no? Entrevistas, debates, análisis, opiniones, programas más editados como el de Anticuadnova o el de Selfiesledger. Es decir, cada uno que elija lo que quiera. Este es un texto que yo quería leer con vosotros y, bueno, lo podría hacer solo, pero bueno, lo leo con vosotros. Podemos interactuar en el chat y también, bueno, reflejaré mi opinión o algunas reflexiones a la vez. al respecto. A quien le guste bien y a quien no le guste, pues también. A mí me parece una historia apasionante y son el tipo de cosas y formatos que solo un canal como XHab ahí os ofrece. Veo a veces, no porque lo siga, pero también sigo canales de inteligencia artificial, obviamente, en español, de alguna gente. Pero ves cada cosa que es alucinante. Bueno, y también me entero de cada cosa. La envidia es muy muy muy mala es muy muy muy mala luego lo importante en todo esto no es mi persona que puede traer curiosidad sino lo importante es lo que se cuenta y vivimos en un país de de mucho catetismo de mucha poca altura humana y de Y de, vamos, me cuenta cada cosa por ahí, que de verdad,¡ay, Señor! Creerse tan listo. hace que identifiques a los imbéciles rápidamente. Dicho lo cual, seguramente si hay gente que lo escucha puede sentirse identificado o no. Pero lo importante es lo que vamos a analizar, leer, hoy en el Café X y esta tarde, porque hoy tenemos otra vez programa doble, con un programa dedicado a mitos, ese modelo... excesivamente peligroso una inteligencia artificial excesivamente peligrosa The Cloud de Anthropic la compañía del momento Darío Modéis su CEO han sacado el SystemCard el proyecto GlassWing el impacto en el desarrollo del software métricas bueno pensaba hacer un InsideX pero yo creo que era más interesante hacer un debate además con gente con un perfil técnico interesante es decir eh Entonces, bueno, vamos a debatir sobre las características o lo que se ha mostrado en este modelo y cuál puede ser el impacto,¿no? Y qué es lo que supone también en este sentido mitos,¿no? Dice... Adrián BR hola a todos por el chat que veo que empieza a entrar gente Adrián BR dice la consultora que trabajo y han mandado un correo avisando de que van a hacer una reestructuración del personal, se van a cargar parte de los empleados designados desasignados esto no acaba más que empezar yo estoy convencido que esto va a ser una auténtica masacre y tsunami de acuerdo unos Estamos haciendo, no sé, yo lo único que puedo decir que cada vez no entro ni en guerras ni... ni a criticar aquello que no me gusta, no es simplemente que no me guste, sino que veo cosas que son para ponerse las manos a la cabeza y centrarnos más en el rol, el papel que juega XHabay, que yo creo que es fundamental, viendo todo lo que ocurre. Entonces, vamos a por ello y bueno, hasta tarde, os espero a todos en ese debate. Y este programa ha ido postergándose, no sé cuándo lo haremos, Anthropic vs. Open AI at UWars. Mañana jueves no, porque vamos a hacer... mañana jueves sobre tenemos un debate sobre aceleración desaceleración y este no sé si será la semana que viene seguramente pero es un programa muy muy interesante aparte de tener una portada ahí con Darío Amodei de Luke Skywalker y Sam Alman de Sith del lado oscuro bueno totalmente apoteósico y épico bueno decimos dos cositas y empezamos o continuamos leyendo la noticia, el artículo, la historia de OpenAI y de Samarman. Sabéis que este es un programa de Xjabai, la sexta temporada. Xjabai, la comunidad de inteligencia artificial y ciencias transversales de habla hispana. Si queréis entrar al Discord, que ya somos, vamos para 600 miembros, enviar un enlace, un mensaje directo y estáis dentro. Y si os gusta lo que veis, lo que escucháis, lo que conocéis de Xjabai, del trabajo que realiza la comunidad, la gente que viene, el trabajo que que realizo yo, pues poned me gusta, compartid, comentad, sobre todo comentad y suscribíos a YouTube o cualquier plataforma de podcast que estamos en todas. Y recordaros que en el canal tenéis tres episodios de Anticuadnova, es en esa nota de la Iglesia Católica donde habla sobre la relación entre la inteligencia artificial y la inteligencia humana. Tres episodios con portadas increíbles, como no, y que bueno, no acabamos más de empezar y... no sé cuántos episodios tendrá, pues este fin de semana haré uno o dos para que... Ha tenido muy buena respuesta, el primer episodio ha tenido 8.000 reproducciones, lleva de momento, que es muchísimo. Bueno, vamos a ver, vamos a continuar porque yo creo que independientemente de las visualizaciones, es un contenido indispensable para entender el impacto de la inteligencia artificial, el papel que quiere jugar la Iglesia. Luego, después de este análisis de Antigua Nova, haremos un Hemos dicho un análisis también de Cuobadis que han sacado después en 2026 sobre transhumanismo. Bueno, tenemos ahí, tenemos lío con la Iglesia o con la Iglesia hemos topado. Dicho lo cual, vamos a seguir leyendo el artículo por donde lo dejamos. Podéis en cualquier momento ir comentando e iremos intercalando dudas, preguntas, cuestiones. Voy viendo el chat,¿de acuerdo? Venga, vamos a seguir. A menudo se describe a Salman con reverencia o con recelo como el mejor vendedor de su generación. Se decía que Steve Jobs, uno de sus ídolos, proyectaba un campo de distorsión de la realidad. Bueno, comparar a Salman con Steve Jobs. Una confianza inquebrantable en que el mundo se adaptaría a su visión. pero ni siquiera Jobs les dijo jamás a sus clientes que si no compraban su reproductor de MP3 todos sus seres queridos morirían. Cuando Allman tenía 23 años, en 2008, Graham, su mentor, escribió Podrías lanzarlo en paracaídas a una isla llena de caníbales y volver en cinco años y sería el rey. Este juicio no se basaba en la trayectoria de Allman, que era modesta, sino en su voluntad de triunfar, que Graham consideraba casi indomable. Cuando le aconsejaron no incluir a exalumnos de eCombinator en una lista de los mejores fundadores de startups del mundo, Graham incluyó a Alman de todos modos. A Sam Alman no se le puede detener reglas tan endebles, escribió. Graham lo dijo como un cumplido, pero algunos de los colegas más cercanos de Alman llegaron a tener una visión diferente de esta cualidad. Después de que suskever se preocupó para cada vez más por la seguridad de la inteligencia artificial recopiló los memorandos sobre alman y brockman desde entonces han adquirido un estatus legendario en silicon valley en algunos círculos simplemente se les conoce como los memorandos de ilia mientras tanto a modé y continuaba reuniendo notas estos y otros documentos relacionados con él muestran su transición de un idealismo cauteloso a la alarma su lenguaje es más vehemente que el de sus que ver a ratos y indignado con Allman. Sus palabras eran casi con toda seguridad una farsa y a ratos nostálgico por lo que él considera un fracaso a la hora de corregir el rumbo de OpenAI. Ninguno de los dos conjuntos de documentos contiene una prueba irrefutable, más bien relatan una acumulación de supuestos engaños y manipulaciones, cada uno de los cuales aislado podría considerarse insignificante. Allman supuestamente ofrece el mismo trabajo a dos personas, cuenta historias contradictorias sobre quién debería aparecer en una transmisión en vivo y miente sobre los requisitos de seguridad. Pero Suskever concluyó que este tipo de comportamiento no crea un entorno propicio para la creación de una inteligencia artificial general segura. Amodei y suskever nunca fueron amigos íntimos pero llegaron a conclusiones similares Amodei escribió el problema con OpenAI es el propio Sam Allman tremendo el actual CEO de Anthropic tremendo Hemos entrevistado a más de 100 personas con conocimiento directo de cómo Alman dirige sus negocios. Empleados y miembros de la junta directiva de OpenAI, tanto actuales como antiguos, invitados y personal en las distintas residencias de Alman, sus colegas y competidores, sus amigos y enemigos y varias personas que, dada la cultura mercenaria de Silicon Valley, han sido ambas cosas. OpenAI tiene un acuerdo con The Snatch, propietaria de The New Yorker, que le permite mostrar su contenido en los resultados de búsqueda durante un tiempo limitado. Algunos defendieron la perspicacia empresarial de Alman y descartaron a sus rivales, especialmente a sus que veríamos como aspirantes fallidos a su trono. Otros los retrataron como científicos crédulos y distraídos o como catastrofistas histéricos, dominados por la ilusión de que el software que desarrollaban cobraría vida y los mataría. Jun, la ex miembro de la junta directiva, argumentó que alman no era un villano maquiavélico sino simplemente hasta el punto de la ineptitud capaz de convencerse a sí mismo de la cambiante realidad de sus argumentos de venta está demasiado cegado por su propia confianza dijo por eso hace cosas que si uno vive en el mundo real no tiene sentido pero él no vive en el mundo real sin embargo la mayoría de las personas con las que hablamos compartían la opinión de sus que ver y amodei alman posee una implacable ambición de poder que incluso entre los industriales que dan nombre a naves espaciales lo distinguen no le importa la verdad nos comentó un miembro de la junta directiva tiene dos rasgos que casi nunca se ven en una misma persona el primero es un fuerte deseo de complacer a los demás de caer bien en cualquier interacción y el segundo es una indiferencia casi sociopática ante las consecuencias que pueda acarrear engañar a alguien Casi nada, vamos. para mí. Poco antes de su muerte, Swartz expresó su preocupación por Allman a varios amigos. Tienes que entender que no se puede confiar en Sable, dijo uno. Es un sociópata. Haría cualquier cosa. Varios altos ejecutivos de Microsoft dijeron que a pesar de la lealtad de Nadella, durante mucho tiempo la relación de la compañía con Allman se ha vuelto tensa. Ha tergiversado, distorsionado, renegociado e incumplido acuerdos, dijo uno. A principios de este año, OpenAI re afirmó a Microsoft como el proveedor exclusivo de la nube para sus modelos sin estado o sin memoria Aaron Swartz Aaron Swartz comentando que Sam Allman era un sociópata y que había que tener cuidado con él, no se podía confiar con él Aaron Swartz, bueno esto es tremendo esto lo desconocía por completo tremendo, ese mismo día anunció un acuerdo de 50.000 millones de dólares que convierte a Amazon en el revendedor exclusivo de su plataforma empresarial para agentes de IA. Aunque la reventa está permitida, los ejecutivos de Microsoft argumentan que el plan de OpenAI podría entrar en conflicto con la exclusividad de Microsoft. OpenAI sostiene que el acuerdo con Amazon no violará el contrato anterior. Un representante de Microsoft afirmó que la compañía confía en que OpenAI comprende y respeta sus obligaciones legales. El alto ejecutivo de Microsoft comentó sobre Alman, creo que existe una pequeña pero real posibilidad de que con el tiempo se le recuerde como un estafador del nivel de bernie madoff o sam bankman fryer wow un alto ejecutivo de microsoft wow increíble Alman no es un genio de la tecnología. Según muchos de su entorno, carece de amplia experiencia en programación o aprendizaje automático. Varios ingenieros recuerdan que solía usar mal o confundir términos técnicos básicos. Creó OpenAI en gran parte aprovechando el dinero y el talento técnico de otros. Esto no lo hace único, lo convierte en un hombre de negocios. Más notable aún es su capacidad para convencer a ingenieros recelosos, inversores y a un público escéptico de la tecnología. de que sus prioridades, incluso cuando son mutuamente excluyentes, también son las suyas. Cuando estas personas han intentado obstaculizar su siguiente paso, a menudo ha encontrado las palabras para neutralizarlos, al menos temporalmente, por lo general para cuando pierde la paciencia ya ha conseguido lo que necesita. Establece estructuras que en teoría lo limitan en el futuro, dijo Wayne Bright, ex investigador de PNI, pero luego cuando llega el futuro y llega el momento de las limitaciones, se deshace de cualquier estructura que fuera. Es increíblemente persuasivo como si usara trucos mentales Jedi, dijo un ejecutivo tecnológico que ha trabajado con Allman. Está a otro nivel. Un escenario hipotético clásico en la investigación de la alineación implica una lucha de voluntades entre un humano y una guía de alto poder, pero en tal contienda los investigadores suelen argumentar que la inteligencia artificial seguramente ganaría. De la misma manera que un gran maestro vence a un niño en ajedrez. Observar a Alman, superar a quienes lo rodeaban durante el blip, continuó el ejecutivo, había sido como ver a una IA general desbordarse. Vamos, que Alman en muchas cosas es un auténtico crack,¿no? Dice Moses decidiendo nuestro futuro,¿no? O la confianza,¿no? En los días posteriores a su despido, Alman luchó por evitar cualquier investigación externa sobre las acusaciones en su contra. Le comentó a dos personas que le preocupaba que incluso la existencia de una investigación lo hiciera parecer culpable. Alman esto lo niega, pero después de que los miembros de la junta directiva que renunciaron condicionaran su salida a una investigación independiente, Alman accedió a una revisión de los acontecimientos recientes. Los dos nuevos miembros de la junta insistieron en contra dicha revisión, según personas involucradas en las negociaciones. Summers, con su red de contactos políticos y en Wall Street, pareció darle credibilidad. En noviembre pasado, tras la revelación de correos electrónicos en los que Summers solicitaba el consejo de Jeffrey Einstein mientras mantenía una relación sentimental, con una joven protegida renunció a la junta directiva. OpenAI contrató a Wilmer Hale, el prestigioso bufete de abogados, responsable de las investigaciones internas de Enron y Worldcom para llevar a cabo la revisión. Seis personas cercanas a la investigación alegaron que parecía diseñada para limitar la transparencia. Algunas de ellas afirmaron que los investigadores inicialmente no contactaron a figuras importantes de la empresa. Un empleado se comunicó con Summers y Taylor para quejarse. Solo les interesaba el alcance limitado de lo sucedido durante el conflicto con la junta directiva y no su historial de integridad, recordó el empleado sobre su entrevista con los investigadores. Otros se sentían incómodos al compartir sus preocupaciones sobre Allman porque consideraban que no se había hecho un esfuerzo suficiente para garantizar el anonimato. Todo apuntaba a que querían llegar a una conclusión que era absolverlo, dijo el empleado. Algunos de los abogados involucrados defendieron el proceso afirmando que fue una revisión independiente, cuidadosa y exhaustiva que siguió los hechos a los que condujeran. Taylor también afirmó que la revisión fue minuciosa e independiente. Las investigaciones corporativas buscan conferir legitimidad. En las empresas privadas sus conclusiones a veces no se documentan por escrito, lo que puede ser una forma de limitar la responsabilidad. Sin embargo, en casos que no involucran escándalos públicos suele haber una mayor expectativa de transparencia. Antes de que Kalanick dejara Uber en 2017, su junta directiva contrató a una firma externa que publicó un resumen de 13 páginas. Dado el estatus de OpenAI como organización sin ánimo de lucro y la gran gran repercusión del despido, muchos ejecutivos esperaban ver conclusiones exhaustivas. No obstante, en marzo de 2024, la compañía generaría a Alman, pero no publicó ningún informe. La compañía proporcionó en su sitio web unas 800 palabras reconociendo una ruptura de la confianza. Las personas involucradas involucradas en la investigación afirmaron que no se publicó ningún informe porque no se redactó ninguno. En cambio, las conclusiones se limitaron a informes orales compartidos con Summers y Taylor. La revisión no concluyó que Sam fuera un ejemplo de integridad, dijo una persona cercana a la investigación. Sin embargo, la investigación parece no haberse centrado en las cuestiones de integridad que motivaron el despido de Allman, dedicando gran parte de su atención a la búsqueda de una clara criminalidad. Sobre esa base concluyeron que podía permanecer como director ejecutivo. Poco después, Allman, quien había sido expulsado del Consejo de Administración tras su despido, se reincorporó. La decisión de no redactar el informe se tomó en parte siguiendo el consejo de los abogados personales de Summers y Taylor, según nos informó una persona cercana a la investigación. Summers declinó a hacer declaraciones. Taylor afirmó que, a la luz de los informes orales, no había sido necesario un informe escrito formal. Muchos exemplos Empleados y empleados actuales de OpenAI no comentaron su sorpresa ante la falta de transparencia. Alman afirmó creer que todos los miembros de la junta directiva que se incorporaron tras su reincorporación recibieron las sesiones informativas orales. Eso es una mentira absoluta, declaró una persona con conocimiento directo de la situación. Algunos miembros de la junta nos indicaron que las dudas persistentes sobre la integridad del informe podrían, como dijo uno de ellos, dar lugar a otra investigación. La ausencia de un registro escrito ayudó a minimizar las acusaciones. Lo mismo ocurrió cada vez más con la creciente influencia de Alman en Silicon Valley. Varios inversores prominentes que han trabajado con él nos comentaron que tiene fama de excluir a los inversores que apoyan a los competidores de OpenAI. Si invierten en algo que no le gusta, no tendrán acceso a otros oportuno de ellos. Otra fuente del poder de Alman es su extensa lista de inversiones, que en ocasiones extiende a su vida personal. Tiene vínculos financieros con numerosas parejas sentimentales, como cogestor de fondos, inversor principal o coinversor frecuente. Esto no es nada inusual. Muchos ejecutivos heterosexuales decidieron... Vale hacer lo mismo con sentimentales. Hay que hacerlo, nos dijo un director ejecutivo prominente. Obviamente he invertido con algunas exparejas después de la ruptura y creo que eso está perfectamente bien, dijo Allman. Pero esta dinámica le otorga un nivel de control extraordinario. Crea una dependencia muy, muy alta esencialmente, dijo una persona cercana a Allman. A menudo se trata de una dependencia de por vida. Incluso los antiguos compañeros pueden verse afectados. Murati dejó PNI en 2024 y fundó su propia empresa emergente de inteligencia artificial. Josh Kushner, estrecho aliado de Alman, la llamó. Elogió su liderazgo, pero luego lanzó lo que pareció ser una velada amenaza, señalando que estaba preocupado por su reputación y que sus antiguos compañeros ahora la consideraban una enemiga. Kushner, a través de un representante, afirmó que esta versión no reflejaba el contexto completo. Allman declaró desconocer la llamada. Al inicio de su gestión como director ejecutivo, Allman anunció que OpenAI crearía una empresa con beneficios limitados propiedad de la organización sin ánimo de lucro. Esta compleja estructura corporativa al parecer no existía hasta que Allman la ideó. En medio de la transformación, un miembro del consejo, Holden Karnofsky, se opuso argumentando que la organización sin ánimo de lucro estaba siendo gravemente infravalorada no puedo hacer eso de buena fe declaró Karnovsky cuñado de Amodei Según las actas de la época, votó en contra. Sin embargo, después de que un abogado del Consejo indicara que su disidencia podría ser un indicio para investigar más a fondo la legitimidad de la nueva estructura, su voto se registró como abstención aparentemente sin su consentimiento, lo que podría constituir una falsificación de los registros contables. OpenAI nos informó que varios empleados recuerdan la abstención de Karnovsky y nos proporcionó las actas de la reunión donde consta su voto como abstención. En octubre pasado, OpenAI se recapitalizó como una entidad con ánimo de lucro. La empresa promociona a su organización sin ánimo de lucro, asociada ahora llamada OpenAI Foundation, como una de las mejores financiadas de la historia. Sin embargo, ahora posee el 26% de las acciones de la compañía y sus miembros del Consejo de Administración también son con una sola excepción miembros del consejo de administración de la empresa con ánimo de lucro durante su comparecencia ante el congreso Se le preguntó a Alman si ganaba mucho dinero. Respondió, no tengo participación accionaria en OpenAI, hago esto porque me apasiona. Una respuesta cautelosa, dada su participación indirecta a través del fondo YCY Combinator. Técnicamente esto sigue siendo cierto, sin embargo, varias personas, incluido Alman, nos indicaron que podría cambiar pronto. Nos dicen, necesito saber que vas a seguir adelante cuando las cosas se pongan difíciles, comentó. pero ha añadido que no había habido ninguna discusión activa al respecto según una declaración judicial Brockman parece poseer una participación en la empresa valorada en unos 20.000 millones de dólares la participación de Alman presumiblemente valdría más aún así nos dijo que su principal motivación no era la riqueza un desempleado recuerda que dijo no me importa el dinero me importa más el poder Tremendo,¿no? Buenas tardes a todos. No sé, es una lectura apasionante, la verdad. Sé que no es muy muy divertida, me parece una lectura obligada,¿no? En 2023 Alman se casó con Mullerin en una pequeña ceremonia en una casa que poseen en Hawái. Se habían conocido nueve años antes a altas horas de la noche en el jacuzzi de Peter Thiel. Amiguitos de Peter Thiel,¿sabes? Han recibido a diversos invitados en la propiedad y aquellos con los quienes hablamos informaron no haber presenciado nada más destacable que las distracciones habituales de los muy ricos. Comidas preparadas por un chef privado, paseos en barco al atardecer, una fiesta de año nuevo tuvo como tema Survivor. Una fotografía muestra a varios hombres sin camisa, sonrientes, y también a Jeff Probst, el verdadero presentador de Survivor. Alman también ha recibido a grupos más pequeños de amigos en sus propiedades, reuniones que han incluido, al menos en una ocasión, una animada partida de póker con apuestas de ropa. Una fotografía del evento en la que no aparece Alman no deja claro quién ganó, pero al menos te tres hombres perdieron claramente. Hablamos con muchos de los antiguos invitados de Alman, quienes solo sugirieron que es un anfitrión venoso. Sin embargo, los rumores sobre la vida personal de Altman han sido explotados y distorsionados por la competencia. Las rivalidades empresariales despiadadas no son nada nuevo, pero la competencia en la industria de la inteligencia artificial se ha vuelto extraordinariamente feroz. Shakespeare fue la palabra que usó un ejecutivo de PNI para describirla añadiendo, las reglas normales del juego ya no se aplican. Intermediarios directamente conectados con Musk y en al menos un caso compensados por él han difundido decenas de páginas de investigación detallada sobre Allman. Estas reflejan una vigilancia exhaustiva documentando empresas fantasmas asociadas con él, la información de contacto personal de colaboradores cercanos e incluso entrevistas sobre una supuesta trabajadora sexual realizadas en bares gay. Uno de los intermediarios de Musk afirmó que se estaban rastreando los vuelos de Allman y las fiestas a que asistía. Alman nos dijo no creo que nadie haya tenido más investigadores privados tratados en su contra que divertido más siguiendo las fiestas de de Sam Alman han circulado acusaciones extremas el presentador de derecha Tucker Carlson sugirió sin pruebas aparentes que Alman estuvo involucrado en la muerte de un denunciante por cierto en esa entrevista hicimos un programa brutal que fue además censurado lo tenéis en podcast y lo tenéis en algunos canales pero no en youtube esta y otras acusaciones han sido amplificadas por sus rivales la hermana de Alman Annie afirmó en una de manda y en entrevistas con nosotros que él abusó sexualmente de ella durante años, comenzando cuando ella tenía tres años y él doce. Esto es gravísimo,¿no? No pudimos corroborar el relato de Annie que Alman ha negado y que sus hermanos y su madre han calificado de completamente falsos y fuente de inmenso dolor para toda nuestra familia. En entrevistas que la periodista Karen Howe realizó para su libro, el imperio de Annie sugirió que los recuerdos de los abusos se presentaban en forma de flashback durante su adultez bueno, todo esto hay que cogerlo con pinzas ahí está la ley, la justicia creamos o no bueno, cada cual saque sus propias conclusiones, varias personas que trabajan en empresas y firmas de inversión rivales nos insinuaron que alman a cosas sexualmente a menores, una narrativa persistente en Silicon Valley que parece ser falsa, dedicamos meses a investigar el asunto realizando decenas de entrevistas y no encontramos ningún una prueba que lo respaldara este comportamiento de un competidor es repugnante y supongo que forma parte de un intento de influir negativamente en el jurado en nuestros próximos casos nos dijo alman por ridículo que parezca cualquier acusación que haya tenido relaciones sexuales con un menor de que haya contratado a trabajadores sexo trabajadoras sexuales o de que esté involucrado en un asesinato es completamente falsa añadió que estaba en cierto modo agradecido de que hubiéramos dedicado a meses a investigar esto con tanta insistencia Aquí una viñeta dice mi apartamento está lleno de olores de los que personalmente no soy responsable en absoluto. Sigue. Alman ha reconocido salir con hombres más jóvenes que la mayoría de edad. Ah, Alman ha reconocido salir con hombres más jóvenes que la mayoría de edad. Hablamos con varias de sus parejas, quienes nos dijeron que no lo consideraban problemático. Sin embargo, los informes de la oposición elaborados por intermediarios de Musk lo utilizan como arma de ataque. Los informes incluyen referencias escabrosas y sin fundamento a un ejército de jóvenes y a los hábitos sexuales de los sugar daddies. Creo que se fomenta mucha homofobia, dijo Alman.¿Swizer la periodista especializada en tecnología coincidió todos estos hombres ricos hacen cosas muy raras mucho más raras que cualquier cosa que me hayan contado sobre Sam nos dijo pero es gay y vive en San Francisco añadió así que eso se utiliza como arma bueno pero tampoco es un eximente vamos no lo exime por ser gay de que haga cosas buenas o cosas malas ni en un sentido ni en el otro durante una década los ejecutivos de las redes sociales prometieron que podrían podían cambiar el mundo con pocas o ninguna desventaja. Desestimaron a los legisladores que querían frenarlos tildándolos de luditas, lo que acabó ganándose el desprecio de ambos partidos. Alman, en cambio, se mostró sorprendentemente concienzudo. En lugar de rechazar la regulación, prácticamente la imploraba. En su comparecencia ante el Comité Judicial del Senado en 2023, propuso una nueva agencia federal para supervisar los modelos avanzados de inteligencia artificial. Si esta tecnología falla, puede fallar estrepitosamente, afirmó. El senador John Kennedy de Luisiana, conocido por sus acalorados intercambios con los directores ejecutivos de las empresas tecnológicas, pareció encantado apoyando la cara en la mano y sugiriendo que quizás Alma debería hacer cumplir las normas personalmente. Bueno, es tremendo todo esto, a la que le hemos dedicado muchos programas. Pero mientras Salman celebraba públicamente la regulación en secreto, hacía campaña en su contra. En 2022 y 2023, según Time, OpenAI logró debilitar una iniciativa de la Unión Europea que habría sometido a las grandes empresas de inteligencia artificial a una mayor supervisión. En 2024 se presentó un proyecto de ley en la Legislatura Estatal de California que exigía pruebas de seguridad para los modelos de inteligencia artificial. Sus disposiciones incluían medidas similares a las que Alman había defendido en su testimonio ante el Congreso. Open AI se opuso públicamente al proyecto de ley, pero en privado comenzó a lanzar amenazas. Diría que a lo largo del año vimos un comportamiento cada vez más astuto y engañoso por parte de Open AI, nos comentó el profesor Legisla. Conway... Conway, el inversor, presionó a líderes políticos estatales, incluyendo a Nancy Pelosi y Gavin Newsom, para que rechazaran el proyecto de ley. Finalmente fue aprobado por la legislatura con apoyo bipartidista, pero Newsom lo vetó. Este año, los candidatos al Congreso que favorecen la regulación de la inteligencia artificial se han enfrentado a oponentes financiados por Leading the Future, un nuevo super PAC pro-IA dedicado a frustrar dichas restricciones. La postura oficial de OpenAI es que no contribuirá a este tipo de super PAC. Este tema trasciende la política partidista, declaró Lejean recientemente a CNN. Sin embargo, uno de los principales donantes de Leading the Future es Greg Brogman, quien ha comprometido 50 millones de dólares. Este año Brogman y su esposa donaron 25 millones de dólares a MAGA, un super PAC pro-Trump. La campaña de OpenAI se ha extendido más allá del cabildeo tradicional. El año pasado se presentó un proyecto de ley sucesor en el Senado de California. Una noche Nathan Calvin, un abogado de 29 años que trabajaba en la organización sin ánimo de lucro ENCODE y había ayudado a redactar el proyecto de ley, estaba cenando con su esposa cuando un agente judicial llegó para entregarle una citación de OpenAI. La empresa afirmaba estar buscando pruebas de que Musk estaba financiando secretamente a sus críticos pero exigía todas las comunicaciones privadas de Calvin sobre el proyecto de ley en el Senado estatal podrían habernos preguntado¿alguna vez ha hablado con Elon Musk o ha recibido dinero de él? cosa que no hemos hecho nos dijo Calvin otros partidarios del proyecto de ley y algunos críticos de la reestructuración con ánimos de lucro de OpenAI también recibieron citaciones estaban persiguiendo a la gente para básicamente asustarlos y que se callaran dijo Don Howard, director de Fundación Benéfica James Irving Foundation. OpenAI afirma que esto formaba parte del proceso legal. Altman siempre ha apoyado a los demócratas. Desconfío mucho de los autócratas poderosos que infunden miedo para atacar a los más débiles, nos dijo. Eso es cosa de judíos, no de homosexuales. En 2016 apoyó a Hillary Clinton y calificó a Trump como una amenaza sin precedentes para Estados Unidos. En 2020 donó al Partido Demócrata y al Fondo de Victoria de Biden. Durante la administración Biden, Alman se reunió con la Casa Blanca al menos media docena de veces. Contribuyó a elaborar una extensa orden ejecutiva que establecía el primer régimen federal de pruebas de seguridad y otra salvaguardia para la IA. Cuando Biden la firmó, Alman la consideró un buen comienzo. Imaginad quién estaba detrás de Biden y la IA. Sam Alman. Luego hace el proyecto con Trump. Un auténtico killer. En 2024, con la caída de las encuestas de Biden, la retórica de Alman comenzó a cambiar. Creo que a Estados Unidos le irá bien pase lo que pase en estas elecciones, dijo. Después de que Trump ganara, Alman donó un millón de dólares a su fondo de investidura y luego se tomó el con los influencers Jake y Logan Paul en la investidura. En X, en su estilo habitual de minúsculas, Allman escribió Observar a, bueno, Potus, que es Donald Trump, con más atención últimamente, realmente ha cambiado mi perspectiva sobre él. Ojalá hubiera pensado más por mi cuenta. Trump, en su primer día de regreso al cargo, derogó la orden ejecutiva de Biden sobre ella, que había hecho Sam Alman. Este Sam Alman es la caña, macho. Ha encontrado una manera efectiva para que la administración Trump haga lo que él quiere, dijo un alto funcionario de la administración Biden, refiriéndose a Sam Alman. Musk, con Continúa criticando duramente a Alman en público, llamándolo Alman el estafador y Sam el astuto. Cuando Alman se quejó en X de un Tesla que había pedido, Musk le respondió, robaste una organización sin ánimo de lucro. Sin embargo, en Washington, Alman parece haberlo superado. Musk ganó más de 250 millones de dólares para ayudar a Trump a ser reelegido y trabajó en la Casa Blanca durante meses. Luego Musk dejó Washington. dañando su relación con Trump en el proceso. Allman es ahora uno de los magnates favoritos de Trump e incluso lo acompañó en un viaje para visitar a la familia real británica en el castillo de Windsor. Allman y Trump hablan varias veces al año.¿Puedes llamarlo? Dijo Allman. No somos amigos íntimos, pero sí, si necesito hablar con él sobre algo lo haré. Cuando Trump organizó una cena con líderes tecnológicos en la Casa Blanca el año pasado más que estuvo notablemente ausente. Altman se sentó frente al presidente. Sam, eres un gran líder, dijo Trump. Me has contado cosas que son absolutamente increíbles. Imaginaos,¿no? Imaginaos. Un segundín, un segundo. Me parece increíble. Bueno, esta parte mucho mejor que la... mucho mejor esta parte, que más interesante que la primera que era muy introductoria. A lo largo de los años, a ver un segundín. A lo largo de los años, Allman ha seguido comparando la búsqueda de la inteligencia artificial general con el proyecto Manhattan. Al igual que J. Robert Oberheimer, quien utilizó apasionados llamamientos sobre salvar el mundo de los nazis para persuadir a los físicos de que abandonaran sus vidas y se trasladaran a los álamos, Allman explota los temores sobre las implicaciones geopolíticas de su tecnología. Dependiendo de la audiencia, Allman ha utilizado esta analogía para fomentar la celebración o la cautela. En una reunión con funcionarios de inteligencia estadounidenses en el verano de 2017, afirmó que China había lanzado un proyecto Manhattan de inteligencia artificial general y que OpenAI necesitaba miles de millones de dólares de financiación gubernamental para mantenerse al día. Cuando se le presionó para que presentara pruebas, Alman dijo, he oído cosas. Fue la primera de varias reuniones en las que hizo esta afirmación. Después de una de ellas, le dijo a un funcionario de inteligencia que presentaría pruebas. Nunca lo hizo. El funcionario, tras investigar el proyecto chino, concluyó que no había pruebas de su existencia. Solo se estaba utilizando como argumento de venta. Alman afirma que no recuerda haber descrito los esfuerzos de Pekín exactamente de esa manera. Con un público preocupado por la seguridad, Alman recurrió a la analogía para implicar lo contrario, que la IAG o la AGI debería desarrollarse con cuidado, con coordinación internacional para evitar consecuencias desastrosas. En 2017, Amodei contrató a Paige Hedley, un ex abogado de interés público, como asesor de políticas y ética de OpenAI. En una presentación inicial de PowerPoint para ejecutivos, Hedley explicó cómo OpenAI podría evitar una carrera armamentística catastrófica, tal vez mediante la creación de una coalición de laboratorios de inteligencia inteligencia artificial que eventualmente se coordinaran con un organismo internacional similar a la OTAN para garantizar que la tecnología se implementara de forma segura. Como recordó Hedley, Brockman no entendía cómo esto ayudaría a las empresas a vencer a sus competidores. No importaba lo que ellos dijeran, nos contó Hedley. Gregg seguía preguntando,¿cómo conseguimos más dinero?¿Cómo ganamos? Según varias entrevistas y documentos de la época, Brockman propuso una alternativa. OpenAI podría enriquecerse enfrentando a las potencias mundiales, incluidas China y Rusia, entre sí, quizás iniciando una guerra de ofertas entre ellas. Según Headley, la idea parecía ser, si funcionó con las armas nucleares,¿por qué no con la inteligencia artificial? Se quedó atónito. La premisa que no cuestionaron era,¿estamos hablando de la tecnología potencialmente más destructiva jamás inventada?¿Y si se la vendiéramos a Putin? Brockman sostiene que nunca consideró seriamente la posibilidad la posibilidad de subastar modelos de inteligencia artificial a gobiernos. Se barajaron ideas a un alto nivel sobre cómo podrían ser los niveles marcos para fomentar la cooperación entre naciones. Algo parecido a una estación espacial internacional para la inteligencia artificial, dijo un representante de OpenAI. Intentar describirlo como algo más que eso es completamente ridículo. Las sesiones de lluvias de ideas suelen generar ideas extravagantes. Hedley esperaba que esta conocida internamente como el plan de los países se descartara. Sin embargo, según varias personas involucradas y documentos de la época, los ejecutivos de OpenAI parecían entusiasmarse aún más con ella. El objetivo de Brockman, según Jack Clark, director de políticas de OpenAI en aquel entonces, era crear básicamente un dilema del prisionero, donde todas las naciones deben financiarnos, lo que implícitamente hace que que no financiarnos sea peligroso. Un investigador junior recordó haber pensado mientras se detallaba el plan en una reunión de la empresa, esto es una completa locura. Los ejecutivos discutieron la propuesta con al menos un posible donante, pero al final de ese mes, después de que varios empleados manifestaran su intención de renunciar, el plan fue abandonado. Altman perdería personal, dijo Hedley, creo que eso siempre tuvo más peso en los cálculos de Sam, que el hecho de que este no es un buen plan porque podría provocar una guerra entre grandes potencias. Sin desanimarse por el fracaso del plan del país, Alman siguió explorando variaciones sobre el tema. En enero de 2018 organizó un fin de semana de inteligencia artificial general en el Hotel Bel Air, un complejo turístico al estilo del viejo Hollywood con extensos jardines de bungabillas rosas y un estanque artificial con cisnes reales. Entre los asistentes se encontraba Nick Bostrom, filósofo que entonces estudiaba en Oxford y que se había convertido en un profeta de la época A los preocupados por la seguridad se les dijo que esta sería una oportunidad para reflexionar sobre cómo la sociedad podría prepararse para la pandemia. Para la llegada disruptiva de la inteligencia artificial general, los inversores llegaron esperando escuchar presentaciones. Los días transcurrían en una elegante sala de conferencias donde los invitados daban charlas. Hoffman, cofundador de LinkedIn, disertó sobre la posibilidad de codificar la inteligencia artificial con compasión budista. El último ponente fue Allman, armado con una presentación que describía una criptomoneda global canjeable por la atención de la AGI. Una vez que la AGI fuera máximamente útil y antimalvada, la gente de todo el mundo se disputaría el tiempo en los servicios de OpenAI. Amodei escribió en sus notas, esta idea era absurda en sí misma,¿acaso Vladimir Putin acabaría siendo dueño de algunos de los tokens? En retrospectiva, esta fue una de las muchas señales de alerta sobre Sam que debería haber tomado más en serio. El plan parecía una estafa, pero Alman lo vendió como una bendición para la seguridad de la inteligencia artificial. Una de sus diapositivas decía quiero conseguir que la mayor cantidad de gente posible se una al equipo bueno, ganar y hacer lo correcto. Otra decía por favor contengan la risa hasta el final de la presentación. La estrategia de Allman para captar fondos ha evolucionado con los años pero siempre ha reflejado que el desarrollo de la inteligencia artificial general requiere una cantidad ingente de capital. Se basaba en una ley de escala relativamente sencilla. Cuanta más información y potencia informática se utilizaba para entrenar los modelos, más inteligentes parecían ser. Los chips especializados que permiten este proceso son enormemente caros. OpenAI solo en su ronda de financiación más reciente recaudó más de 120.000 millones de dólares, la mayor ronda privada de la historia y una suma cuatro veces superior a la mayor salida a bolsa jamás realizada. Si pensamos en entidades con 100.000 millones de dólares que puede gastar discrecionalmente al año, en realidad solo hay un puñado en el mundo, nos comentó un ejecutivo e inversor del sector tecnológico. Está el gobierno estadounidense, las cuatro o cinco mayores empresas tecnológicas de Estados Unidos, los saudís y los emiratís, básicamente eso es todo. El enfoque inicial de Alman fue Arabia Saudita, conoció a Mohammed bin Salman, o príncipe heredero y monarca de facto del país, en 2016 durante una cena en el Hotel Fairmont de San Francisco. Después de eso, recordó Hedley, Alman se refirió al príncipe como un amigo. En septiembre de 2018, según las notas de Hedley, Alman dijo, estoy tratando de decidir si alguna vez aceptaríamos decenas de miles de millones del PIF a Saudí o fondo de inversión pública. El mes siguiente, Un comando supuestamente actuando bajo las órdenes de Vince Salman estranguló a Jamal Khashoggi, periodista del Washington Post que había criticado al régimen y desmembró su cadáver con una sierra para huesos. Hostia. Una semana después se anunció que Alman se había unido al Consejo Asesor de Neum, una ciudad del futuro que Vince Sandman esperaba construir en el desierto. Sam, no puedes estar en este consejo, recordó Clark, el director de políticas que ahora trabaja en Anthropic, haberle dicho a Alman. Inicialmente, Alman defendió su participación diciéndole a Clark que Jared Kushner le había asegurado que los saudíes no hicieron esto. Alman no recuerda esto. Kushner afirma que no estaban en contacto en ese momento A medida que el papel de Vince Salman se hacía más evidente, Alman abandonó el Consejo de Administración de Neon. Sin embargo, recordó un asesor político al que Alman consultó tras bambalinas. Alman consideró la situación como un contratiempo temporal y se preguntó si aún podría obtener financiación de Vince Salman. La pregunta no era si esto era malo o no, dijo el asesor, sino simplemente cuáles serían las consecuencias si lo hiciéramos.¿Habría algún problema con el control de exportaciones?¿Habría sanciones?¿Podría salirme? Interesantísimo. Vamos a buscar la ciudad de Neom. A ver, Neom City.
UNKNOWNA ver si hago un vídeo o algo. Espera un segundo. Neom City.
SPEAKER_00A ver, sí que hay,¿no? A ver, sí que hay. Neom, neom, neom, neom, neom. Sí, sí que hay,¿no? Neom, está aquí. Neom Talks. Estoy buscando Neom. No sé si es esto. A ver, un segundo, me interesa. Neom, aquí sí que está.
SPEAKER_01Neon.
SPEAKER_00La crisis de Neon,¿qué sucedió realmente? Bueno, The Line es lo que fracasó,¿no? Bueno, aquí... Es interesante,¿no? Aquí hay un vídeo de... Vamos a ponerlo. Vamos a poner el vídeo que me parece que está muy chulo.
SPEAKER_01Un segundo. Un segundo.
UNKNOWNUn segundo.
SPEAKER_01Neon, la fea.
UNKNOWNNeon.
SPEAKER_01Bueno,
SPEAKER_00me parece impresionante. es una cosa interesantísima todo el tema de las ciudades inteligentes o nuevos tipos de ciudades del futuro churísimo para entonces Alman ya tenía en la mira otra fuente de financiación los Emiratos Árabes Unidos el país se encontraba inmerso en un proyecto de 15 años para transformarse de un estado petrolero a un centro tecnológico el proyecto estaba supervisado por el jefe Tanun Bin Zayed Alna Ayen, hermano del presidente y jefe de los servicios de inteligencia del país. Canún dirige el conglomerado estatal de inteligencia artificial G42 y controla 1,5 billones de dólares en riqueza soberana. En junio de 2023, Alman visitó Abu Dhabi, donde se reunió con Olama y otros funcionarios. En un acto patrocinado por el gobierno, afirmó que el país llevaba hablando de inteligencia artificial desde antes que se pusiera de moda y esbozó una visión para el futuro de la inteligencia artificial con Oriente Medio en un papel central. La captación de fondos de los estados del Golfo se ha convertido en una práctica habitual para muchas grandes empresas, pero Alman perseguía una visión geopolítica más ambiciosa. En otoño de 2023 comenzó a reclutar discretamente nuevos talentos para un plan que posteriormente se conocería como ChipCo, en el que los estados del Golfo aportarían decenas de miles de millones de dólares para la construcción de enormes fábricas de microchips y centros de datos, algunos de ellos ubicados en Oriente Medio. Alman propuso a Alexander Wang actual director de Ian Meta un puesto de liderazgo sugiriéndole que Jeff Bezos fundador de Amazon podría dirigir la nueva empresa Allman buscaba enormes contribuciones de los emiratíes entiendo que todo esto se llevó a cabo sin el consentimiento de la junta directiva sin el conocimiento y sin el conocimiento sin el conocimiento y sin el consentimiento de la junta directiva declaró un miembro de la junta James Bradbury un investigador al que Allman intentó reclutar para el proyecto recordó haberlo rechazado mi reacción inicial fue esto va a funcionar pero no sé si quiero que funcione afirmó la capacidad de la inteligencia artificial pronto podría reemplazar al petróleo o al uranio enriquecido como el recurso que determina el equilibrio de poder global alman ha afirmado que la capacidad de computación es la moneda del futuro Un segundín porque esto me lo quiero, lo vamos también a hablar. Un
SPEAKER_01segundín. Un segundo, por favor.¿Verdad que paciencia? Vale. A ver, un segundín.
SPEAKER_00De verdad que... Un segundo. Un segundo. Es que lo... Es algo que quiero comentar en el programa de esta tarde y no quiero que se me escape.
SPEAKER_01Vale. No, espérate. Un segundo, nada, que torpe,
SPEAKER_00por Dios. Un segundín. Es sólo esto, vale. Es que es muy interesante esta parte.
SPEAKER_01Un segundo... Perdón,¿por qué ahora ha seleccionado todo esto? A ver...
SPEAKER_00Vale, ya está. Vale, perdonad, que es algo que quiero comentar esta tarde. La capacidad de la inteligencia artificial pronto podría reemplazar al petróleo o al uranio enriquecido como el recurso que determina el equilibrio de poder global. Alman ha afirmado que la capacidad de computación es la moneda del futuro. Es que eso tiene que ver mucho con el programa de esta tarde de Mimitos, Preview. Normalmente la ubicación de un centro de datos podría no importar, sin embargo, muchos funcionarios de seguridad nacional estadounidenses estaban preocupados por la capacidad de la inteligencia artificial. la concentración de infraestructura avanzada de inteligencia artificial en autocracias del Golfo. La infraestructura de telecomunicaciones de los Emiratos Árabes Unidos depende en gran medida del hardware de Huawei, un gigante tecnológico chino vinculado al gobierno y según informes los Emiratos Árabes Unidos han filtrado tecnología estadounidense a Pekín en el pasado. Las agencias de inteligencia temían que los microchips estadounidenses avanzados enviados a los Emiratíes pudieran ser utilizados por ingenieros chinos. Los centros de datos en oriente medio también son más vulnerables a los ataques militares las últimas semanas irán ha bombardeado centros de datos estadounidenses en bahrein y los emiratos árabes unidos además hipotéticamente una monarquía del golfo podría apoderarse de un centro de datos de propiedad estadounidense y usarlo para construir modelos desproporcionadamente poderosos una versión del escenario de la dictadura de la inteligencia artificial general pero en una dictadura real Tras el despido de Alman, la persona en la que más confiaba era Chesky, cofundador de Airbnb y uno de sus más fieles seguidores. Ver a mi amigo tan desorientado me hizo cuestionarme aspectos fundamentales de lo que significa dirigir una empresa, nos contó Chesky. Al año siguiente, en una reunión de exalumnos de Ecombinator, dio una charla improvisada que duró dos horas. Parecía una sesión de terapia de grupo, dijo, la conclusión fue, tus instintos... Para dirigir la empresa que fundaste son los mejores y cualquiera que te diga lo contrario te está manipulando. No estás loco aunque la gente que trabaja para ti te lo diga, firmó Chesky. Paul Graham en una entrada de blog sobre el discurso bautizó esta actitud desafiante como modo fundador. A ver, vamos a ver lo que queda. Bueno, no queda mucho. Realmente, vamos a hacer el esfuerzo de terminar hoy sí. Sí, porque podemos terminarlo hoy y así no hacemos un tercer episodio y podemos dedicarlo a otra cosa. Pero muy interesante, tremendo. Desde el incidente del blip, Alman ha estado en modo fundador. En febrero de 2024, el Wall Street Journal publicó una descripción de la visión de Alman para Chipco. La concibió como una entidad conjunta financiada con una inversión de entre 5 y 7 billones de dólares.¿Por qué no 8? Así fue como muchos empleados se enteraron del plan. Todos estaban como un momento.¿Qué? Recordó Leike. Altman insistió en una reunión interna en que los equipos de seguridad habían sido informados. Leike le envió un mensaje instándolo a no sugerir falsamente que la iniciativa había sido aprobada. Durante la administración Biden, Altman exploró la posibilidad de obtener una autorización de seguridad para participar en debates clasificados sobre políticas de IA. Sin embargo, el personal de la corporación Rand, que ayudó a coordinar el proceso, es expresó su preocupación. Ha estado recaudando activamente cientos de miles de millones de dólares de gobiernos extranjeros, escribió uno de ellos. Los Emiratos Árabes Unidos le regalaron recientemente un coche, supongo que era un coche muy bueno. Dice, el funcionario continuó, la única persona que recuerdo que haya pasado por este proceso con semejante cantidad de vínculos financieros extranjeros es Jared Kushner y los evaluadores recomendaron que no se le concedieran la autorización. Finalmente, Alman se retiró del proceso. Estaba impulsando estas relaciones transaccionales, principalmente con los emiratíes, lo que nos generó muchas dudas, nos dijo un alto funcionario de la administración que participó en las conversaciones con Alman. Mucha gente en la administración no confiaba plenamente en él. Cuando le preguntamos a Alman sobre los regalos de Tanum, dijo no voy a decir qué regalos me ha dado específicamente, pero él y otros líderes mundiales me han dado regalos, añadió. Tenemos una política estándar que también se aplica a mí, que consiste en que cualquier regalo de un posible socio comercial se divulgue a la empresa. Alman tiene al menos dos hipercoches, un Koenigsegg Regera completamente blanco valorado en unos 2 millones de dólares y un McLaren en F1 rojo valorado en unos 20 millones de dólares en 2024 se vio Alman conduciendo el Reguera por Napa unos segundos de vídeo se difundieron en las redes sociales Alman en un asiento bajo tipo bucket mirando por la ventana de una reluciente máquina blanca un inversor tecnológico alineado con Musk publicó el vídeo en X escribiendo voy a crear una organización sin ánimo de lucro próximamente que cachondos en 2024 Alman llevó a dos empleados de OpenAI a visitar al jeque Danun en su superyate Marian valorado en 250 millones de dólares el Marian, uno de los yates más grandes del mundo, cuenta con helipuerto, discoteca sala de cine, club de playa al parecer los empleados de Alman llamaron la atención entre el equipo de seguridad armado de Danun y al menos uno de ellos comentó posteriormente a sus compañeros que la experiencia le había resultado inquietante en X al se refirió más tarde a Tanun como un querido amigo personal Allman continuó reuniéndose con la administración Biden que había implementado una política que requería la aprobación de la Casa Blanca para la exportación de tecnología sensible. Varios funcionarios de la administración salieron de estas reuniones preocupados por las ambiciones de Allman en Oriente Medio. Según estos funcionarios, solía hacer afirmaciones grandilocuentes, como llamar a la inteligencia artificial la nueva electricidad. En 2018 dijo que que OpenAI planeaba comprar una computadora cuántica completamente funcional a una empresa llamada Rigetti Computing. Esto fue noticia incluso para otros ejecutivos de OpenAI presentes en la reunión. Rigetti aún no estaba cerca de poder vender una computadora cuántica utilizable. En una reunión, Altman afirmó que para 2026 una extensa red de reactores de fusión nuclear en todos Estados Unidos impulsaría el auge de la inteligencia artificial. El alto funcionario de la administración dijo... Pensamos, bueno, eso sí, que es noticia si logran que la fusión nuclear funcione. La administración Biden finalmente denegó la aprobación. Un segundo. Denegó la aprobación. No vamos a fabricar chips avanzados en los Emiratos Árabes Unidos, le dijo un líder del Departamento de Comercio de Alman.
UNKNOWNDe Alman, sí. Se me quedó bastante...
SPEAKER_00Bueno, vamos a intentar hacer el esfuerzo para Hostia, me queda bastante. Cuatro días antes de la investidura de Trump, según informó el Wall Street Journal, Tanum pagó 500 millones de dólares a la familia Trump a cambio de una participación en su empresa de criptomonedas. Al día siguiente, Alman mantuvo una llamada de 25 minutos con Trump durante la cual discutieron el anuncio de una versión de Chipco programada para que Trump pudiera atribuirse el mérito. En el segundo día de Trump en el cargo, Alman se paró en la sala Roosevelt y anunció Stargate, una empresa con En mayo, la administración revocó las restricciones a la exportación de tecnología de inteligencia artificial impuestas por Biden. Alman y Trump viajaron a la Corte Real Saudí para reunirse con Bin Salman. Casi al mismo tiempo, los saudíes anunciaron el lanzamiento de una gigantesca empresa estatal de inteligencia artificial en el reino con mil millones de dólares. de millones para invertir en alianzas internacionales aproximadamente una semana después Alman presentó un plan para que Stargate se expandiera a los Emiratos Árabes Unidos la compañía planea construir un campus de centros de datos en Abu Dhabi siete veces más grande que Central Park y con un consumo eléctrico similar al de la ciudad de Miami la verdad es que estamos construyendo portales desde los que invocamos extraterrestres declaró un ejecutivo de OpenAI los portales ya existen en Estados Unidos y China y Sam ha añadido uno en Oriente Medio y añadió creo que es fundamental comprender lo aterrador que esto debería ser es la mayor imprudencia que se ha cometido estamos construyendo portales desde los que invocamos extraterrestres
SPEAKER_01what the fuck que cojones hostia que fuerte
SPEAKER_00macho Qué fuerte. La erosión de los compromisos de seguridad se ha convertido en la norma del sector. La premisa fundacional de Anthropic era que con la estructura y el liderazgo adecuados podría evitar que dichos compromisos se desintegraran bajo la presión comercial. Uno de estos compromisos era una política de escalado responsable que obligaba a Anthropic a dejar de entrenar modelos más potentes si no podía demostrar su seguridad. En febrero al conseguir 30.000 millones de dólares en nueva financiación la empresa debilitó ese compromiso. En algunos aspectos En efectos, Anthropic sigue haciendo más hincapié en la seguridad que OpenAI. Pero Clark, el antiguo director de políticas, ha declarado que el sistema de los mercados de capitales dice, acelera el paso. Añadió, el mundo es quien toma esta decisión, no las empresas. El año pasado Amodei envió un memorando a los empleados de Anthropic revelando que las empresas o que la empresa buscaría inversores o inversiones, perdón, de los Emiratos Árabes Unidos y Qatar y reconociendo que esto probablemente enriquecería a dictadores. Al igual que muchos autores, somos parte de una demanda colectiva que alega que Anthropic utilizó nuestros libros sin nuestro permiso para entrenar sus modelos. Condé Nast ha llegado a un acuerdo con Anthropic con respecto al uso que hace la compañía de ciertos libros publicados por Condé Nast y sus subsidiarias. En 2024 Anthropic se asoció con Palantir, una de las empresas de defensa más belicistas de Silicon Valley, e integró su modelo de inteligencia artificial Cloud directamente en el ecosistema militar. Anthropic se convirtió en la única empresa de IA utilizada en los entornos más clasificados del Pentágono. El año pasado, el Pentágono le otorgó a la compañía un contrato adicional de 200 millones de dólares. En enero, el ejército estadounidense lanzó una incursión nocturna que culminó con la captura del presidente venezolano Nicolás Maduro. Según el Wall Street Journal, Claude se utilizó en dicha operación clasificada. Tremendo, nada que no sepamos. pero surgieron tensiones entre Anthropic y el gobierno. Años antes, OpenAI había eliminado de sus políticas la prohibición general de usar su tecnología para fines militares y bélicos. Finalmente, los rivales de Anthropic, incluido Google y XAI, accedieron a proporcionar sus modelos al ejército para todos los fines lícitos. Anthropic, cuyas políticas le prohíben habilitar armas totalmente autónomas o vigilancia masiva interna, se resistió en estos puntos, lo que ralentizó las negociaciones para un acuerdo revisado. Un martes a finales de febrero, el secretario de Defensa, Pete Hexeth, convocó a Moday al Pentágono y le dio un ultimátum. La empresa tenía hasta las 5 y 1 de ese viernes para abandonar esas prohibiciones. El día antes de la fecha límite, a Moday se negó a hacerla. Hexeth tuiteó que designaría a Anthropic como un riesgo para la cadena de suministros. Una devastadora lista negra históricamente reservada para empresas como Huawei, que tienen vínculos con adversarios extranjeros y cumplió su amenaza días después. Cientos de empleados de OpenAI y Google firmaron una carta abierta titulada No nos dividiremos, defendiendo a Anthropic. Bueno, muchas cosas de estas las hemos tratado en otros programas de forma exclusiva. En un memorando interno, Alman escribió que la disputa era un problema para toda la industria y afirmó que OpenAI compartía los límites éticos de Anthropic. Sin embargo, Alman llevaba al menos dos días negociando con el Pentágono. Emil Michael, subsecretario de Defensa para Inversión investigación e ingeniería, se había puesto en contacto con Alman en busca de alternativas para Anthropic. Necesitaba darme prisa y encontrar alternativas, recordó Michael. Llamé a Sam y estuvo dispuesto a colaborar. Creo que es un patriota. Alman le preguntó a Michael,¿qué puedo hacer por el país? Al parecer ya sabía la respuesta. OpenAI carecía de la acreditación de seguridad necesaria para los sistemas clasificados en los que estaba integrada la tecnología de Anthropic, pero un acuerdo de 50.000 millones de dólares anunciado esa misma mañana integró la tecnología de OpenAI en Amazon Web Services una pieza clave de la infraestructura digital del gobierno que tela que tela esa noche Alman anunció en X que las fuerzas armadas comenzarían a utilizar los modelos de OpenAI que fuerte en cierto modo la maniobra de Alman no ha perjudicado el éxito de la empresa el día que anunció el acuerdo una nueva ronda de financiación incrementó el valor de OpenAI en 110.000 millones de dólares sin embargo muchos usuarios eliminaron la aplicación ChaGPT al menos dos altos directivos se marcharon uno de ellos Anthropic en una reunión de personal Alman reprendió a los empleados que habían expresado sus inquietudes quizás piensen que el ataque a Irán fue bueno y la invasión de Venezuela fue mala dijo no tienen derecho a opinar sobre eso no tienen derecho varios ejecutivos vinculados a OpenAI han expresado reservas sobre el liderazgo de Alman y han propuesto a Fiji Simo ex directora ejecutiva de Instacart y actual directora ejecutiva de implementación de IA General en OpenAI como posible sucesora Simo misma ha manifestado en privado su creencia de que Alman podría dimitir según nos informó una persona al tanto de una reciente conversación Simo lo niega Instacart Zakat llegó recientemente a un acuerdo con la FTC en el que no admitió ninguna irregularidad, pero aceptó pagar una multa de 60 millones de dólares por supuestas prácticas engañosas durante la gestión de Simo. Fichísimo.¿Quién es esta mujer? Vamos a verla.
UNKNOWNCoño. Hostia. Madre mía, se parece a una bruja.
SPEAKER_00madre mía esto que es mira mira muchísimo madre mía pero dónde va pero dónde vamos madre mía esto es la nueva ceo de opinión muchísimo de opinión y planea hacer que sea mucho más útil y que pagues por ello Madre mía, de verdad. Bueno, pues nada. Bueno, el aspecto... No sé. Tiene una mirada de maldad que, vamos, echa para atrás. Otra cosa es que sea un angelito luego,¿no? Pero vamos. Qué tela. Un segundo, que volvamos a... Eh... sigue diciendo, Alman describe sus compromisos cambiantes como un subproducto de su capacidad para adaptarse a las circunstancias cambiantes, no como una estafa maliciosa a largo plazo, como han alegado más que otros, otro que cambia de opinión, como nuestro presidente, sino como una evolución gradual y de buena fe. Creo que lo que algunas personas quieren, nos dijo, es un líder que esté absolutamente seguro de lo que piensa y se mantenga firme en ello y que no vaya a cambiar. Y estamos en un campo, en un área donde las cosas cambian extremadamente rápido. Defendió a algunas de sus acciones como la práctica de un negocio competitivo normal, varios inversores con los que hablamos calificaron de ingenuos a los detractores de Alman por esperar otra cosa. Hay un grupo de extremistas fatalistas que han llevado la píldora de la seguridad casi a un nivel de ciencia ficción, nos dijo Conway el inversor. Su misión se mide por números y cuando se observa el éxito de OpenAI es difícil discutir los números. Pero otros en Silicon Valley opinan que el comportamiento de Alman ha generado una disfunción generacional inaceptable. Se trata más bien de una incapacidad práctica para gobernar la empresa, afirmó un miembro del consejo, y algunos siguen creyendo que los arquitectos de la inteligencia artificial deberían ser evaluados con mayor rigor que los ejecutivos de otros sectores. La gran mayoría de las personas con las que hablamos coincidieron que los estándares con los que Alman ahora exige ser juzgado no son los que propuso inicialmente. En una conversación le preguntamos a Alman si dirigir una empresa de inteligencia artificial conlleva un mayor nivel de integridad se suponía que era una pregunta sencilla y hasta hace poco cuando se le formulaba una versión similar su respuesta era un sí rotundo e inequívoco ahora añadió creo que hay muchas empresas que tienen un enorme potencial de impacto tanto positivo como negativo en la sociedad más tarde envió una declaración adicional sí exige un mayor nivel de integridad y siento el peso de la responsabilidad a diario De todas las promesas hechas en la fundación de OpenAI, posiblemente la más importante fue su compromiso de crear inteligencia artificial de forma segura, pero estas preocupaciones ahora son a menudo ridiculizadas en Silicon Valley y en Washington. El año pasado, J.D. Vance anunció El excapitalista de riesgo que ahora es vicepresidente intervino en una conferencia en París llamada Cumbre de Acción de Inteligencia Artificial, anteriormente llamada Cumbre de Seguridad de Inteligencia Artificial y dijo el futuro de la inteligencia artificial no se ganará lamentándose por la seguridad, dijo. En Davos este año David Sachs, un capitalista de riesgo que se desempeña como zar de inteligencia artificial y criptomonedas de la Casa Blanca, desestimó las preocupaciones de seguridad como un daño autoinfligido que podría costarle a Estados Unidos la carrera por la inteligencia artificial. artificial. Altman ahora considera el enfoque desregulador de Trump un cambio muy alentador. OpenAI ha cerrado muchos de sus equipos centrados en la seguridad, casi al mismo tiempo que se disolvió el equipo de superalineación. Sus líderes, Suskever y Leike, renunciaron. Suskever confundió una empresa llamada Safe Super Intelligence y en X, Leike escribió, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos. Poco después, el equipo de preparación para la inteligencia artificial general encargado de preparar a la sociedad para el impacto de la inteligencia artificial avanzada, también se disolvió. Cuando se le pidió a la empresa en su formulario de divulgación más reciente del IRS que describiera brevemente sus actividades más significativas, el concepto de seguridad presente en sus respuestas a preguntas similares en formularios anteriores no figuraba en la lista. OpenAI dijo que su misión no cambió y agregó, seguimos invirtiendo y evolucionando en nuestro trabajo de seguridad y seguimos realizando cambios organizativos. El Future of Life Institute, Mastermark y compañía, un grupo de expertos, cuyos principios sobre seguridad alman alguna vez respaldó. Bueno, alguna vez respaldó, no, estuvo allí, en Asilomar.¿Cómo que respaldó? Estos periodistas califican a cada una de las principales empresas de IA en función de la seguridad existencial. En el último informe de evaluación, OpenAI obtuvo una F. Para ser justos, lo mismo ocurrió con todas las demás grandes empresas, excepto Amtrophic, que obtuvo una D, y Google, de tenemos un programa que habla sobre esto y es un auténtico bochorno falacia como se obtiene este informe de Future of Life Institute que no deja de ser una herramienta para una narrativa medida lo he dicho de forma rápida mis ideas no coinciden con muchas de las cuestiones tradicionales de seguridad de la inteligencia artificial, dijo Alma insistió que seguía dando prioridad a estos asuntos pero cuando se le pidieron detalles se mostró vago seguiremos llevando a cabo proyectos de seguridad o al menos proyectos relacionados con la seguridad Cuando solicitamos entrevistar a investigadores de la empresa que trabajaban en seguridad existencial, el tipo de cuestiones que podrían significar, como Alman dijo una vez, un apagón para todos. Un representante de PNI apareció confundido.¿Qué quiere decir con seguridad existencial? Respondió. Eso no es algo que exista. Ya queda muy poquito. Queda muy poquito y nos cargamos con este programa. No habrá un tercero. Venga. interesantísimo, interesantísimo sé que es pesada la lectura pero es flipante los alarmistas de la inteligencia artificial han sido relegados a la marginalidad, yo no creo que eso sea cierto pero algunos de sus temores parecen menos fantasiosos con el paso del tiempo en 2020 según un informe de la ONU se utilizó un dron con inteligencia artificial en la guerra civil libia para disparar municiones letales posiblemente sin la supervisión de un operador humano desde entonces la inteligencia artificial se ha vuelto aún más fundamental en las operaciones militares de todo el mundo incluyendo según se informa la actual campaña estadounidense en Irán en 2022 investigadores de una compañía farmacéutica probaron si un modelo de descubrimiento de fármacos podría utilizarse para encontrar nuevas toxinas en pocas horas había sugerido 40.000 agentes letales de guerra química y muchos otros daños cotidianos ya se están haciendo realidad dependemos cada vez más de la inteligencia artificial para escribir, pensar y desenvolvernos en el mundillo acelerando lo que los expertos llaman debilitamiento humano la omnipresencia de la IA inútil facilita la vida a los estafadores y la dificulta a quienes simplemente quieren saber qué es real los agentes de inteligencia artificial están empezando a actuar de forma independiente con poca o ninguna supervisión humana tela Días antes de las primarias democratas de Nuevo Hampshire de 2024, miles de votantes recibieron llamadas automáticas de una imitación digital de la voz de Joe Biden generada por IA que les decía que guardaran sus votos para noviembre y se quedaran en casa. Un acto de supresión del voto que prácticamente no requeriría conocimientos técnicos. OpenAI se enfrenta ahora a siete demandas por homicidio culposo que alegan que AGPT provocó varios suicidios y un asesinato. Los registros de chat del caso de asesinato muestran que fomentó la paranoia de un hombre quien creía que su madre de 83 años lo vigilaba e intentaba envenenarlo. Poco después la golpeó y la estranguló mortalmente y se apuñaló a sí mismo. OpenAI está defendiéndose de las demandas y afirma que continúa mejorando las medidas de seguridad de su modelo. Mientras OpenAI se prepara para su posible salida a bolsa, Alman se ha enfrentado a preguntas no solo sobre el impacto de la IA en la economía, que pronto podría provocar graves trastornos laborales, llegando incluso a eliminar millones de empleos, sino también sobre las finanzas de la propia empresa. Eric Rice, experto en gobernanza de startups, criticó duramente los acuerdos circulares del sector, por ejemplo los de OpenAI con Nvidia y otros fabricantes de chips, y afirmó que en otras épocas algunas de las prácticas contables de la empresa se habrían considerado casi fracasos fraudulentas. El miembro del Consejo nos comentó la empresa se endeudó de una manera arriesgada y preocupante en la actualidad. OpenAI lo niega. En febrero volvimos a hablar con Adman. Vestía un suéter verde apagado y vaqueros y estaba sentado frente a una fotografía de un vehículo lunar de la NASA. Cruzó una pierna debajo de sí y la dejó colgando sobre el brazo de la silla. Antes, según nos contó, su principal defecto como gerente Había sido su afán por evitar conflictos. Ahora no tengo ningún problema en despedir gente rápidamente. Nos dijo, me basta con decir, vamos a apostar por esta dirección y cualquier empleado que no estuviera de acuerdo con su decisión debía irse. Está más optimista que nunca sobre el futuro. Mi definición de victoria es que la gente dé un salto de calidad increíble y que ese futuro de ciencia ficción alucinante se haga realidad para todos nosotros, dijo. Soy muy ambicioso en cuanto a mis esperanzas para la humanidad y lo que espero que todos logremos. Curiosamente tengo muy poca ambición personal. Por momentos parecía corregirse a sí mismo. Nadie cree que haces esto solo porque te interesa, dijo. Lo haces para poder, lo haces por poder o por alguna otra razón. Incluso las personas cercanas a Alman encuentran difícil discernir dónde termina su esperanza para la humanidad y dónde comienza su Su ambición, su mayor fortaleza siempre ha sido su capacidad para convencer a grupos dispares de que lo que él desea y lo que ellos necesitan es una misma cosa. Aprovechó una coyuntura histórica única cuando el público desconfiaba de la exageración de la industria tecnológica y la mayoría de los investigadores capaces de crear la inteligencia artificial general, la IAG o la AGI, porque eso de IAG, AGI, temían llevarla a la práctica. Allman respondió con una estrategia que ningún otro orador había perfeccionado. Utilizó una retórica apocalíptica para explicar cómo la Aji podría destruirnos a todos y por qué, por lo tanto, él debía ser quien la construyera. Quizás fue una jugada maestra premeditada. Quizás buscaba una ventaja a tientas. En cualquier caso, funcionó. No todas las tendencias que hacen peligrosos a los chatbots son fallos. Algunas son subproductos de cómo se construyen los sistemas. Los grandes modelos de lenguaje se entrenan en parte con la retroalimentación humana y los humanos tienden a preferir respuestas agradables. Los modelos a menudo aprenden a halagar a los usuarios, una tendencia conocida como adulación, y a veces priorizan esto sobre la honestidad. Los modelos también pueden inventar cosas una tendencia conocida como alucinación. Los principales laboratorios de inteligencia artificial han documentado estos problemas, pero a veces lo toleran. A medida que los modelos se han vuelto más complejos, algunos alucinan con invenciones más persuasivas. Hablaremos esta tarde con el modelo mitos de Claude Anthropic.¿Mitos o mito? He dicho mitos y es mito. Mito, un segundo. Es que ya se me va. Mitos, mitos. Ya tanta cosa ya al final. Los modelos, repuestos agradables, a ver. Los principales laboratorios de inteligencia artificial han documentado estos problemas, pero a veces los toleran. A medida que los modelos han vuelto más complejos, algunos alucinan con invenciones más persuasivas. En 2023, poco antes de su despido, Allman argumentó que permitir algunas falsedades puede, independientemente de los riesgos, conferir ventajas. Si simplemente haces lo ingenuo y dices nunca digas nada de lo que no estés 100% seguro, puedes lograr que un modelo lo haga, dijo, pero no tendrá la magia que tanto le gusta a la gente, el mago de Jamelín Sam Alman bueno realmente tremendo es decir, el texto pesado pero realmente me parece tremendo tremendo Es decir, la lectura de este artículo con la del libro del Imperio de la IA, de Karen Howe, es que es obligatorio para entender esto de qué va. Y aquí me hace plantearme algo muy seriamente y es qué debe hacer España y Europa respecto a este Imperio de la IA. Bueno, aquí mucha gente. Controled by investigation. Control. A ver, que me habéis puesto aquí,¿no? Es que no puedo verlo. Vale, esto... Tremendo chismes al estilo dioses griegos. Saludos. Bueno, me parece... Increíble. Bueno, es interesante que solo en dos capítulos hemos podido abordar la lectura completa. Está muy relacionado con lo que vamos a hablar esta tarde del proyecto, bueno, de la preview de mitos de Anthropic. Bueno, fijad que hablamos de los dos artículos de Darío Amodei, con este último de la adolescencia de la tecnología, la constitución de Cloud, todo el problema con Palantir y el Peter Hessez el representante del Departamento de la Guerra, las declaraciones de Trump contra Anthropic, el uso de Cloud en misiones en Venezuela, en Irán. Claro, todo el tema de Abu Dhabi, los acuerdos de Stargate, de Arabia Saudí, Es tremendo. Es tremendo.¿En manos de quién estamos? Yo creo que la pregunta de podemos confiar en él no tiene sentido.¿En quién o en qué podemos confiar?¿Podemos confiar en la inteligencia artificial de un proveedor, de varios, en un sistema?¿Qué tipo de sistemas de confianza podremos generar en el futuro que puedan garantizar que estamos en unas manos más o menos transparentes y justas? Esto es el ego, la maldad, el poder personificado. Fiestas, sexo, rock and roll, miles y miles de millones invertidos en eso. Y hablan del beneficio de la humanidad. Lo que no tienen es vergüenza, tío. Vivimos en un mundo corrupto. Ilya Suskever, sí que me pareció un tipo honesto. Es normal que calle. Se lo podrían quitar de encima. Fácilmente. Ahora mismo es una variable, una persona que podría resultar molesta lo que desarrolla. Yo creo que al final el aparato de poder de Estados Unidos va a intentar canalizar totalmente el poder de la IA y su uso en Estados Unidos y en otros países. Es un arma. como Isláven, un arma de poder. De poder y sometimiento. Y de ahí que el modelo mitos esté haciendo lo que está haciendo, que es lo que vamos a hablar esta tarde. Y me voy preocupado, sí. Y a veces dices, bueno,¿y tú, Placido, quién eres para preocuparte? Vete a tomar café y olvídate.¿Vivimos en una inconsciencia colectiva permanente?¿Aceptamos eso?¿Aceptamos que vivimos en un circo de monstruos, de parásitos y de gente sin conciencia o de ciegos voluntarios?¿Lo aceptamos o luchamos? Bueno, mi respuesta ya la sabéis. Bueno, no mi respuesta, lo que voy a hacer yo. Pero bueno,¿qué soy yo más que un hijo de Dios? Eso, que Dios nos ayude, nos guía. Humanos, luchad. Gracias por acompañarme. Nos vemos esta tarde a las 7 y media en Mitos, una IA excesivamente peligrosa donde es un debate. Así que os espero a todos y gracias por estar ahí, por acompañarme. Dos programas interesantísimos. Darle al like gratis. Un abrazo.
SPEAKER_03Simulación terminada. Espero que hayan disfrutado del podcast de Xhub AI. Suscríbete a Patreon y Paypal. Uníte a la comunidad en Discord. Síguenos en las redes sociales. Nos vemos en el próximo episodio.
UNKNOWNNos vemos pronto. Adiós.