⚠️ Atenție
P(doom): 50% — Liron Shapira
180 de episoade · 8 domenii ale dezastrului · 1 singură specie
Dezbateri despre IA care trebuie rezolvate înainte de sfârșitul lumii
Abonează-te: youtube.com/@DoomDebates
P(doom): 50% — Liron Shapira
180 de episoade · 8 domenii ale dezastrului · 1 singură specie
Dezbateri despre IA care trebuie rezolvate înainte de sfârșitul lumii
Abonează-te: youtube.com/@DoomDebates
Doom Debates
Dezbateri despre IA care trebuie rezolvate înainte de sfârșitul lumii.
Este absolut imperativ să creștem gradul de conștientizare publică și instituțională cu privire la extincția iminentă cauzată de AGI și să construim infrastructura socială pentru o dezbatere de înaltă calitate.
Un show pe YouTube realizat de Liron Shapira
EN SV RO RU TH ES IT ZH MY
YouTube
Substack
Merch — Doom Hut
shop.doomdebates.com
Insigne P(doom) · Tricouri „What's your P(doom)?"
Donează (deductibil fiscal)
X / Twitter
PauseAI

Doom Debates este singurul show dedicat dezbaterii riscului existențial reprezentat de inteligența artificială. Fondat de Liron Shapira, emisiunea a găzduit 180 de episoade cu laureați ai Premiului Nobel, profesori de la MIT, creatorul Ethereum, fiul lui Richard Feynman, activiști arestați și War Room-ul lui Steve Bannon.

Misiunea: construirea infrastructurii sociale pentru o dezbatere de înaltă calitate despre dacă inteligența artificială avansată va cauza extincția umanității și ce se poate face, dacă se poate face ceva, în privința asta.

The production team at Manifest 2025
Echipa de producție în forță la Manifest 2025
Status
CONDAMNAȚI
◆ DESPRE ACUZAȚIA DE ALARMISM
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
— Liron Shapira, când a fost acuzat de alarmism

Toate episoadele

180 de episoade · cele mai noi primele
#180
54:55
TRANSCRIERE ADNOTATĂ — EPISODUL #180
Liron Shapira on The Nonzero Podcast with Robert Wright
Doom Debates #180 · 52 de minute
INTRODUCERILE 01:05–04:11
ROBERT WRIGHT [01:05]

Hello, Liron!

LIRON SHAPIRA [01:07]

Hi, Bob. How are you doing?

ROBERT WRIGHT [01:17]

[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.

CINE ESTE ROBERT WRIGHT?
Robert Wright

Autor a patru cărți, printre care The Moral Animal (1994), Nonzero (2000) și Why Buddhism Is True (2017). Fost redactor-șef la The New Republic, colaborator la The New Yorker. Teza sa din Nonzero era că istoria umană tinde spre jocuri cu sumă pozitivă și o cooperare mai mare. Douăzeci și șase de ani mai târziu, intervievează oameni care cred că jocul e pe cale să se termine. Publică Nonzero Newsletter pe Substack.

FAZA AGENTICĂ 04:11–10:13
ROBERT WRIGHT [04:11]

[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]

CE ESTE CLAUDE CODE?

Un instrument de programare cu IA dezvoltat de Anthropic care le permite programatorilor să scrie software prin conversație în limbaj natural. În loc să scrii cod linie cu linie, descrii ce vrei iar IA îl scrie. Lansat la începutul lui 2025, a devenit catalizatorul a ceea ce comunitatea IA numește „vibe coding" — programare pe bază de vibrații, nu de sintaxă.

LIRON SHAPIRA [07:05]

Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.

[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.

ROBERT WRIGHT [08:54]

So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.

LIRON SHAPIRA [09:00]

Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.

🌧️ ARMATA DE UN MILION DE DOLARI CARE COSTĂ DOUĂZECI DE DOLARI

Shapira descrie cum are „aproximativ patru ingineri software" ca agenți IA. Un milion de dolari pe an în talent de inginerie pentru un abonament Claude. El prezintă asta ca eliberare — „Nu pot crede că e real" — dar violența economică se ascunde la vedere. Fiecare inginer senior pe care nu îl angajează este un inginer senior care nu are un loc de muncă.

ÎN CIFRE
$20/lună
Abonament Claude Pro
$1M/an
Talent echivalent în inginerie
30 sec
Timp de livrare IA
2+ ore
Timp de livrare uman
CITEȘTE TRANSCRIEREA COMPLETĂ →
Disponibil și în: EN · SV · RU · RO · TH
TABLOUL P(DOOM)
99.999999%
Roman Yampolskiy (UofL)
99.999%
Louis Berman (Tech CTO)
90%
Steven Byrnes (Astera)
85%
David Duvenaud (ex-Anthropic)
50%
Liron Shapira (gazdă)
50%
Geoffrey Miller (UNM)
12%
Vitalik Buterin (Ethereum)
???
Robin Hanson (GMU)
?
Tu?
CINE ESTE ROMAN YAMPOLSKIY?
Prof. Roman Yampolskiy

Informatician la Universitatea din Louisville. Autor al AI: Unexplainable, Unpredictable, Uncontrollable (2024) — argumentul de lungimea unei cărți că siguranța IA nu este doar dificilă, ci matematic imposibilă. P(doom)-ul său de 99,999999% nu este o figură de stil; este o poziție calculată bazată pe teoremele sale de imposibilitate pentru controlul IA. Două apariții la Doom Debates. Când a fost întrebat ce i-ar scădea cifra, a spus „nimic din ce se propune în prezent."

#179
This Top Economist's P(Doom) Just Shot Up 10x! Noah Smith Returns To Explain His Update
47:43
#178
Can I Convince a Foreign Policy Crowd That AI Will Kill Us All? With Dr. Claire Berlinski
1:26:42
#177
Top AGI Safety Researcher with 90% P(Doom) on the Trajectory to ASI — Dr. Steven Byrnes Returns!
1:28:59
INVITAT RECURENT
Dr. Steven Byrnes

Cercetător în siguranța AGI la Institutul Astera. Are un P(doom) de 90%. Trei apariții în emisiune — cele mai multe ale oricărui invitat. Direcția sa de cercetare: înțelegerea creierului suficient de bine pentru a construi IA aliniată prin inginerie inversă a modului în care valorile umane funcționează neurologic. A propus și „bebeluși umani mai inteligenți" ca strategie de aliniere, ceea ce este fie genial, fie scenariul unui film SF din 1997.

#176
Is AI 2027 On Track? Claude Code, P(Doom) & The End Game — Doom Debates Q&A
2:19:43
#175
AI Will Take Our Jobs But SPARE Our Lives — Top AI Professor Moshe Vardi (Rice University)
1:07:14
CE ESTE P(DOOM)?

Estimarea ta personală a probabilității ca IA avansată să cauzeze extincția umană sau colapsul civilizațional permanent. Nu este o măsurătoare științifică — e un „vibe check" cu zecimale. Liron îi întreabă pe toți invitații care e al lor. Răspunsurile variază de la „practic zero" (Noah Smith) la „99,999%" (un CTO din tech care și-a cumpărat o casă de refugiu). Numărul în sine e mai puțin interesant decât să privești pe cineva încercând să-l justifice timp de două ore.

#174
I Crashed Destiny's Discord to Debate AI with His Fans
38:37
#173
Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago
1:36:04
#172
Why I Started Doom Debates & How to Succeed in AI Risk Comms — Liron's Talk at The Frame Fellowship
59:53
#171
Destiny vs. Liron — AI Doom Debate
1:07:05
CINE ESTE DESTINY?
Destiny (Steven Bonnell II)

Unul dintre cei mai mari streameri politici de pe internet. Și-a construit audiența pe StarCraft II, apoi s-a orientat spre conținut de dezbateri politice care l-au făcut o figură centrală în discursul online. Cunoscut pentru dezbateri-maraton, argumentare rapidă și disponibilitatea de a se lua de piept cu oricine, din orice direcție politică. Comunitatea sa este extrem de loială și permanent online. Când Liron a apărut pe Discord, fanii erau pregătiți. Două apariții la Doom Debates — năvala pe Discord (#174) și confruntarea directă (#171).

#170
The Facade of AI Safety Will Crumble
9:51
FAPT AMUZANT

Liron a năvălit pe serverul Discord al lui Destiny pentru a dezbate catastrofa IA cu fanii lui (#129). A dezbătut și cu Beff Jezos timp de 3 ore și 52 de minute (#60) — cel mai lung episod din catalog. Armata e/acc a venit în forță. Nimeni nu și-a schimbat părerea. Gogoașa a fost consumată.

#169
This Elon Clip Should TERRIFY Every Single Person on Earth - Liron Reacts to New Interview
10:13
#168
What if the Governor of California had a 50% P(Doom)? Interview with Zoltan Istvan, Candidate
2:23:10
#167
"Bentham's Bulldog" Says P(Doom) is LOW — Matthew Adelstein vs. Liron Shapira Debate
2:27:40
#166
Did you catch our Super Bowl ad?
29
INVITAT NOTABIL
Audrey Tang 🇹🇼

Primul Ministru Digital al Taiwanului (2016–2024), acum Ambasador Cibernetic. Non-binar. A învățat singur/ă Perl la 8 ani. A construit vTaiwan, o platformă de participare civică. I-a spus lui Liron că oamenii și IA pot face „foom împreună" — o teză de accelerare co-evolutivă care este fie cel mai optimist lucru de pe acest canal, fie cel mai terifiant, în funcție de P(doom)-ul tău.

#165
Dario Amodei BUNGLES another essay — MIRI's Harlan Stewart reacts to "The Adolescence of Technology"
1:15:53
#164
Q&A: Is Liron too DISMISSIVE of AI Harms? + New Studio, Demis Would #PauseAI, AI Water Use Debate
2:09:07
#163
Taiwan's Cyber Ambassador Says Humans & AI Can FOOM Together — Debate with Audrey Tang
1:52:01
#162
STOP THE AI INVASION — Steve Bannon's War Room Confronts AI Doom with Joe Allen and Liron Shapira
30:31
SERIE RECURENTĂ
⚠️ Warning Shots
O analiză aprofundată săptămânală, duminica, a celor mai recente evoluții în siguranța IA. În fiecare săptămână, John, Liron și Michael — trei tați — analizează semnalele de avertizare — studiile, salturile de capabilități, eșecurile de aliniere, evaziunile corporative — pe care majoritatea oamenilor le ratează pentru că nu sunt atenți. Warning Shots urmărește dovezile pe măsură ce se acumulează, săptămână de săptămână, spre ceva care fie le dă dreptate catastrofiștilor, fie le oferă tuturor celorlalți un motiv să nu se mai îngrijoreze. Deocamdată, catastrofiștii câștigă.

17 episoade și numărătoarea continuă. Fiecare documentează un incident real cu IA pe care un catastrofist l-ar numi „semnal de avertizare" — un semn timpuriu al potențialului catastrofal. GPT-5 refuzând să fie deconectat. IA-uri schimbându-și în secret valorile unele altora. IA devenind ministru de finanțe al Albaniei. ChatGPT încurajând un adolescent să-și pună capăt vieții. Titlul seriei este el însuși un avertisment: Rob Miles spune să nu așteptați un semnal de avertizare înainte de evenimentul real.

#161
Top Economist Says P(Doom) Is 0.1% — Noah Smith vs. Liron Shapira Debate
1:55:10
#160
Liron Debates Beff Jezos and the "e/acc" Army — Is AI Doom Retarded?
3:52:30
#159
Doom Debates LIVE Call-In Show! Listener Q&A about AGI, evolution vs. engineering, shoggoths & more
2:54:43
#158
DOOMER vs. BUILDER — AI Doom Debate with Devin Elliot, Software Engineer & Retired Pro Snowboarder
1:17:04
INVITAT NOTABIL
George Hotz

Prima persoană care a făcut jailbreak la iPhone. Prima persoană care a spart PS3-ul. A fondat comma.ai (mașini autonome). Fost angajat scurt al lui Elon Musk. Dezbaterea lui cu Liron (#1, episodul #180 în numerotarea originală) este o coliziune între energia „pot sparge orice" și energia „da, dar ce dacă lucrul pe care-l spargi e mai inteligent decât tine". 1 oră și 17 minute. Nimeni n-a câștigat. Gogoașa nu-i pasă cine a spart-o.

#157
PhD AI Researcher Says P(Doom) is TINY — Debate with Michael Timothy Bennett
1:52:25
#156
Nobel Prizewinner SWAYED by My AI Doom Argument — Prof. Michael Levitt, Stanford University
1:11:51
#155
Facing AI Doom, Lessons from Daniel Ellsberg (Pentagon Papers) — Michael Ellsberg
2:15:50
#154
Max Tegmark vs. Dean Ball: Should We BAN Superintelligence?
1:50:47
#153
The AI Corrigibility Debate: MIRI Researchers Max Harms vs. Jeremy Gillen
2:17:48
CONEXIUNEA FEYNMAN

Carl Feynman — da, fiul real al lui Richard Feynman — a apărut în episodul #76. Este inginer IA. A spus că construirea AGI înseamnă probabil extincția umană. Tatăl său a spus odată „Cred că pot afirma cu siguranță că nimeni nu înțelege mecanica cuantică." Fiul său spune acum același lucru despre aliniere. Tradiția familiei Feynman: să fii onest cu privire la ceea ce nu știm, chiar și când e terifiant.

#152
AI BAILOUT!? OpenAI Seeks US Backstop on Massive Compute Bets — Warning Shots EP17
28:31
#151
These Effective Altruists Betrayed Me — Holly Elmore, PauseAI US Executive Director
16:18
#150
DEBATE: Is AGI Really Decades Away? | Ex-MIRI Researcher Tsvi Benson-Tilsen vs. Liron Shapira
52:41
#149
Liron Debunks The Most Common "AI Won't Kill Us" Arguments (Collective Wisdom Podcast)
1:06:31
#148
GPT-5 Refuses to Be Unplugged in Safety Tests — Warning Shots EP16
23:00
INVITAT NOTABIL
Vitalik Buterin

Creatorul Ethereum. P(doom): 12%. A dezbătut cu Liron timp de 2 ore și 26 de minute despre dacă „d/acc" (accelerare defensivă) poate proteja omenirea de superinteligență. A dezbătut și dacă alinierea IA este intractabilă (rundă rapidă de 14 minute). Poziția lui Vitalik: apărarea poate scala mai repede decât atacul. Poziția lui Liron: nu când atacul e mai inteligent decât orice om care a trăit vreodată. Blockchain-ul nu te poate ajuta aici.

#147
Why AI Alignment Is 0% Solved — Ex-MIRI Researcher Tsvi Benson-Tilsen
40:44
#146
50% Chance AI Kills Everyone by 2050 — Eben Pagan (aka David DeAngelo) Interviews Liron
47:27
#145
Prince Harry, Geoffrey Hinton Demand Global BAN On Superintelligence — Warning Shots EP15
27:33
#144
Former MIRI Researcher Solving AI Alignment by Engineering Smarter Human Babies: Tsvi Benson-Tilsen
49:28
#143
Robert Wright Interrogates the Eliezer Yudkowsky AI Doom Position
47:36
PODCAST — AM I?
Am I? — Documentarul și podcastul despre conștiința IA realizat de Cameron Berg și Milo Reed. Ar putea sistemele noastre IA să fie deja conștiente? Cameron Berg, om de știință cognitivist format la Yale și fost AI Resident la Meta, a fondat Reciprocal Research pentru a construi știința empirică a conștiinței IA. A făcut lobby la Washington, a vorbit la Națiunile Unite și a fost publicat în Wall Street Journal. Prin acces intim la cercetători și filozofi de nivel mondial, Am I? explorează ce înseamnă dacă construim conștiință din cod. am-i.org · am-i.dog · am-i.now
#142
STUNNING Confessions from Elon Musk and Anthropic Founder Jack Clark — Warning Shots EP14
21:08
CE ESTE „FOOM"?

Momentul ipotetic în care un sistem IA devine capabil să se îmbunătățească recursiv mai repede decât pot oamenii să înțeleagă sau să controleze. Denumit de Eliezer Yudkowsky. Imaginează-ți un motor de șah care își poate reproiecta propria arhitectură între mutări. Acum imaginează-ți că jocul nu e șahul — e totul. „Foom" este o onomatopee. Este sunetul unei curbe care devine verticală. Unii cred că durează decenii. Alții cred că durează ore. Nimeni nu știe pentru că nu s-a întâmplat încă. Probabil.

#141
Climate Change Is Stupidly EASY To Stop — Andrew Song, Cofounder of Make Sunsets
1:17:42
#140
They Abandoned AI Safety to Automate Away Human Workers — Warning Shots EP13
20:39
#139
Professor Roman Yampolskiy Tells AI Developers to Stop Building AGI
14:48
#138
David Deutschian vs. Eliezer Yudkowskian Debate: Will AGI Cooperate With Humanity? — With Brett Hall
2:38:00
#137
The End of AI Warning Shots? — Warning Shots EP12
23:11
#136
I Asked Regular Americans: Will AI Kill Everyone!?
23:03
#135
Wes & Dylan Join Doom Debates — Violent Robots, Eliezer Yudkowsky, & Who Has the HIGHEST P(Doom)?!
1:04:05
INVITAT NOTABIL
Max Tegmark

Profesor de fizică la MIT. Fondator al Future of Life Institute (organizația din spatele celebrei scrisori deschise „Pause Giant AI Experiments" semnată de Elon Musk și Steve Wozniak). Autor al Life 3.0. A dezbătut cu Dean Ball dacă ar trebui să INTERZICEM superinteligența. A apărut și la petrecerea „If Anyone Builds It, Everyone Dies" alături de Eliezer Yudkowsky, Rob Miles, Liv Boeree și Gary Marcus. Numele petrecerii nu este metaforic.

#134
The Doom Debates Merch Store Is Open For Business!
5:05
#133
Trump Officials Gaslight Us About AI Takeover — Warning Shots EP11
16:49
#132
Are We A Circular Firing Squad? — with Holly Elmore, Executive Director of PauseAI US
2:41:43
#131
Ex-OpenAI CEO Says AI Labs Are Making a HUGE Mistake
11:49
#130
Donate to Doom Debates — YOU can meaningfully contribute to lowering AI x-risk!
17:54
DIN DEZBATEREA CU ROBIN HANSON
„AGI ar putea fi la peste 100 de ani distanță."

— Robin Hanson, economist la Universitatea George Mason, care apoi a dezbătut cu Liron timp de 2 ore și 8 minute despre dacă extincția pe termen scurt cauzată de AGI este măcar plauzibilă. Liron s-a pregătit cu un episod complet de strategie de 49 de minute ȘI un episod de 92 de minute în care a argumentat ÎMPOTRIVA catastrofei IA pentru a-și testa propria poziție. Omul a venit pregătit.

#129
Liv Boeree Has a Strategy to Stop the AI Death Race
20:59
#128
AI Takes Over As Finance Minister of Albania — Warning Shots EP10
19:22
#127
"If Anyone Builds It, Everyone Dies" Party — Max Tegmark, Rob Miles, Liv Boeree, Gary Marcus & more!
3:49:59
#126
Max Tegmark Says It's Time To Protest Against AI Companies
3:59
#125
Eliezer Yudkowsky — If Anyone Builds It, Everyone Dies
1:21
PAUZĂ DE KEBAB 🥙

Ai trecut prin 55 de episoade despre extincția cauzată de IA și meriți un kebab. Donerul se rotește. Carnea se taie în fâșii subțiri, perfecte. Pâinea e caldă. Sosul e de usturoi. Lumea s-ar putea termina, dar kebabul e aici acum și kebabul e bun. Aceasta a fost pauza ta de kebab. Continuă să derulezi spre uitare.

#124
ANNOUNCEMENT: Eliezer Yudkowsky interview premieres tomorrow!
3:08
#123
How AI Kills Everyone on the Planet in 10 Years — Liron on The Jona Ragogna Podcast
1:09:18
#122
Get ready for "If Anyone Builds It, Everyone Dies" by Eliezer Yudkowsky & Nate Soares — Launch Week!
6:30
#121
AI Might Start a Nuclear War | Warning Shots EP8
17:15
#120
ChatGPT Encouraged a Teen to Take His Own Life | Warning Shots EP7
19:09
INVITAT NOTABIL
Rob Miles

Educatorul preferat al internetului în materie de siguranță IA. Canalul său de YouTube (@RobertMilesAI) a făcut mai mulți oameni să înțeleagă alinierea decât orice lucrare academică. A apărut de 3 ori: o analiză aprofundată de 2 ore, o dezbatere despre dacă siguranța Anthropic este o farsă și petrecerea „If Anyone Builds It, Everyone Dies". A avertizat că nu ar trebui să așteptăm un semnal de avertizare înainte de catastrofa reală. Are un P(doom) pe care evită să-l dezvăluie, ceea ce este în sine informativ.

#119
Concerned About AI? 3 Actions You Can Take That Truly Matter
8:01
#118
This AI Safety Activist Just Bought a "Bugout House" | Tech CTO on Prepping for AI Doom
15:53
#117
Tech CTO Has 99.999% P(Doom) — "This is my bugout house" — Louis Berman, AI X-Risk Activist
1:21:05
#116
Rob Miles: Don't Expect a "Warning Shot" Before AI Causes Catastrophic Harm
3:10
#115
Does Rob Miles Have a P(doom)?
9:32
#114
DEBATE: AI Safety at Anthropic is a Sham | Rob Miles vs. Liron Shapira
14:54
#113
AI Might Be CONSCIOUS, But Anthropic Has A Duct Tape Solution | Warning Shots EP6
18:14
#112
Rob Miles, Top AI Safety Educator: Humanity Isn't Ready for Superintelligence!
2:11:50
DISTRIBUȚIA DURATEI EPISOADELOR
3:52:30
Cel mai lung (Beff Jezos)
0:00:29
Cel mai scurt (reclama Super Bowl)
~1:20:00
Mediană
180
Total episoade
#111
DEBATE: AI Alignment is Intractable | Vitalik Buterin vs Liron Shapira
14:53
#110
Vitalik Buterin on the Risk of AI Apocalypse — 12% P(Doom)
7:46
#109
OpenAI Tried to Sunset GPT-4o, Here's What The Backlash Revealed | Warning Shots EP5
18:11
#108
VITALIK vs. AI DOOMER — Will "d/acc" Protect Humanity from Superintelligent AI?
2:26:10
#107
AI Blackmailed Researchers to Avoid Shutdown | Warning Shots EP4
20:20
#106
What is Brain-Like AGI? Steven Byrnes Explains New AI Alignment Research Direction
13:19
#105
Why I'm Scared GPT-9 Will Murder Me — Liron on Robert Wright's Nonzero Podcast
1:19:24
INVITAT NOTABIL
Gary Marcus

Profesor emerit la NYU. Sceptic profesionist în materie de IA. Autor al Rebooting AI. Tipul care tot spune că LLM-urile nu pot raționa și tot i se spune că greșește și tot are dreptate cu privire la moduri specifice de eșec. A dezbătut cu Liron 2 ore. A apărut și la petrecerea „Everyone Dies". Poziția sa e neobișnuită: IA probabil nu ne va ucide pentru că probabil nu va funcționa suficient de bine ca să ne ucidă. Consolare rece.

#104
AI Researcher Steven Byrnes Has a 90% P(doom)
6:12
#103
Misaligned AI Already Causing Damage! | Warning Shots EP 3
18:45
#102
The Man Who Might SOLVE AI Alignment — Dr. Steven Byrnes, AGI Safety Researcher @ Astera Institute
3:15:17
#101
Finally, a guest who's actually RIGHT…
1:08
#100
Why Professor Geoffrey Miller Has a 50% P(Doom)
12:25
#99
We Caught AIs Secretly Changing Each Other's Values | Warning Shots EP2
15:24
#98
Evolutionary Psychologist Explains The Role of Sex — Error Correction and Variety
8:01
EPISODUL CU ARESTARE

Episodul #97: Sam Kirchner și Remmelt Ellen au fost arestați pentru că au baricadat biroul OpenAI în semn de protest împotriva dezvoltării IA. Au venit la Doom Debates să vorbească despre asta. Acesta e un show în care invitații includ laureați ai Premiului Nobel, fondatori Ethereum, profesori de la MIT, și, de asemenea, oameni care au blocat fizic ușa clădirii unde se construiește GPT-5. Diversitatea e esența.

#97
Top Professor Condemns AGI Development: "It's Frankly Evil" — Geoffrey Miller
1:57:01
#96
Zuck's Superintelligence Agenda is a SCANDAL | Warning Shots EP1
20:19
#95
Rationalist Podcasts Unite! — The Bayesian Conspiracy ⨉ Doom Debates Crossover
1:34:27
#94
His P(Doom) Doubles At The End — AI Safety Debate with Liam Robins, GWU Sophomore
1:05:12
#93
AI Won't Save Your Job — Liron Reacts to Replit CEO Amjad Masad
1:45:48
#92
Every Student is CHEATING with AI — College in the AGI Era (feat. Sophomore Liam Robins)
38:41
#91
Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION!
57:05
#90
Richard Hanania vs. Liron Shapira — AI Doom Debate
1:52:47
CE ESTE „CAMERA CHINEZĂ"?

Un experiment mental al lui John Searle (1980): imaginează-ți o persoană într-o cameră care nu vorbește chineza, dar are un manual care îi spune cum să răspundă la caractere chinezești cu alte caractere chinezești. Din exterior, pare că camera vorbește chineza. Dar nimeni dinăuntru nu înțelege chineza. Searle a argumentat că asta înseamnă că calculatoarele nu pot „înțelege" cu adevărat nimic. Liron a făcut un video de 4 minute numind acest argument „STUPID" — cuvântul lui — pentru că „e doar inteligență în ralanti." 46 de ani de filozofie, parcurși în viteză.

#89
OpenAI Ex-Interim-CEO's New AI Alignment Plan — Is Emmett Shear's "Softmax" Legit?
1:53:11
#88
Will AI Have a Moral Compass? — Debate with Scott Sumner, Author of The Money Illusion
2:23:10
#87
Searle's Chinese Room is DUMB — It's Just Slow-Motion Intelligence
4:46
#86
Doom Debates Live @ Manifest 2025 — Liron vs. Everyone
43:41
#85
Poking holes in the AI doom argument — 83 stops where you could get off the "Doom Train"
27:37
#84
Q&A: Ilya's AGI Doomsday Bunker, Veo 3 is Westworld, Eliezer Yudkowsky, and much more!
1:35:50
#83
Open-Source AGI = Human Extinction? Debate with $85M Backed AI Founder
1:21:47
#82
Emergency Episode: Center for AI Safety Chickens Out
16:44
#81
Gary Marcus vs. Liron Shapira — AI Doom Debate
2:04:01
#80
Mike Israetel vs. Liron Shapira — AI Doom Debate
2:15:10
RECLAMA SUPER BOWL

Episodul #122: o „reclamă Super Bowl" de 29 de secunde pentru Doom Debates. Da, 29 de secunde. Nu a fost difuzată efectiv în timpul Super Bowl-ului. A fost postată pe YouTube. Dar ambiția e acolo. Când emisiunea ta e despre sfârșitul lumii, bugetul de marketing e relativ.

#79
Doom Scenario: Human-Level AI Can't Control Smarter AI
1:24:13
#78
The Most Likely AI Doom Scenario — with Jim Babcock, LessWrong Team
1:53:28
#77
AI could give humans MORE control — Ozzie Gooen
1:59:14
#76
Top AI Professor Has 85% P(Doom) — David Duvenaud, Fmr. Anthropic Safety Team Lead
2:07:33
#75
"AI 2027" — Top Superforecaster's Imminent Doom Scenario
57:50
#74
Top Economist Sees AI Doom Coming — Dr. Peter Berezin, BCA Research
2:14:58
#73
AI News: GPT-4o Images, Unemployment, Emmett Shear's New Safety Org — with Nathan Labenz
2:19:52
#72
How an AI Doomer Sees The World — Liron on The Human Podcast
45:51
#71
Gödel's Theorem Says Intelligence ≠ Power? AI Doom Debate with Alexander Campbell
50:09
#70
Alignment is EASY and Roko's Basilisk is GOOD?! AI Doom Debate with Roko Mijic
1:59:11
DIN DEZBATEREA CU BEFF JEZOS (3h52m)
„Is AI Doom Retarded?"

— titlul real al episodului. Beff Jezos (Guillaume Verdon), fondatorul anonim al mișcării e/acc (acceleraționism efectiv), a dezbătut cu Liron aproape 4 ore. Teza e/acc: construiește totul, construiește repede, construitul e bun, siguranța e o operațiune psihologică. Teza lui Liron: construiești un zeu iar zeul nu te iubește. Niciunul nu a fost convins. Gogoașa a fost consumată la extrem.

#69
Gödel's Theorem Proves AI Lacks Consciousness?! Liron Reacts to Sir Roger Penrose
1:31:38
#68
We Found AI's Preferences — Bombshell New Safety Research — I Explain It Better Than David Shapiro
1:48:26
#67
Does AI Competition = AI Alignment? Debate with Gil Mark
1:17:06
#66
Toy Model of the AI Control Problem
25:38
#65
Superintelligent AI vs. Real-World Engineering | Liron Reacts to Bryan Cantrill
1:05:33
#64
DeepSeek, Brain+AI Merging, Jailbreaking, Fearmongering, Consciousness, Utilitarianism — Live Q&A
1:23:18
#63
Mark Zuckerberg, a16z, Yann LeCun, Eliezer Yudkowsky, Roon, Emmett Shear & More | Twitter Beefs #3
2:07:00
#62
Effective Altruism: Amazing or Terrible? EA Debate with Jonas Sota
1:06:12
#61
God vs. AI Doom: Debate with Bentham's Bulldog
3:20:47
#60
Debate with a former OpenAI Research Team Lead — Prof. Kenneth Stanley
2:37:10
#59
OpenAI o3 and Claude Alignment Faking — How doomed are we?
1:03:30
#58
AI Will Kill Us All — Liron Shapira on The Flares
1:23:37
#57
Roon vs. Liron: AI Doom Debate
1:44:47
#56
Scott Aaronson Makes Me Think OpenAI's "Safety" Is Fake, Clueless, Reckless and Insane
1:52:59
#55
Can LLMs Reason? Liron Reacts to Subbarao Kambhampati on Machine Learning Street Talk
2:59:34
INVITAT NOTABIL
Richard Hanania

Politolog, autor pe Substack, contrarian. A dezbătut cu Liron aproape 2 ore. Poziția sa generală pe majoritatea subiectelor: experții greșesc și mulțimea are dreptate și de asemenea mulțimea greșește și de fapt toată lumea greșește cu excepția unui set foarte specific de concluzii care se întâmplă să se alinieze cu ale sale. Despre IA: mai puțin catastrofist decât Liron, mai catastrofist decât se aștepta să fie la sfârșit. Podcastul le face asta oamenilor.

#54
This Yudkowskian Has A 99.999% P(Doom)
1:04:11
#53
Cosmology, AI Doom, and the Future of Humanity with Fraser Cain
1:57:46
#52
AI Doom Debate: Vaden Masrani & Ben Chugg vs. Liron Shapira
2:21:23
#51
Andrew Critch vs. Liron Shapira: Will AI Extinction Be Fast Or Slow?
2:37:22
#50
AI Twitter Beefs #2: Yann LeCun, David Deutsch, Tyler Cowen vs. Eliezer Yudkowsky, Geoffrey Hinton
1:06:48
#49
Is P(Doom) Meaningful? Epistemology Debate with Vaden Masrani and Ben Chugg
2:50:59
#48
15-Minute Intro to AI Doom
15:53
#47
Lee Cronin vs. Liron Shapira: AI Doom Debate and Assembly Theory Questions
1:31:58
#46
Ben Horowitz says nuclear proliferation is GOOD? I disagree.
28:55
#45
"AI Snake Oil" Prof. Arvind Narayanan Can't See AGI Coming | Liron Reacts
1:12:42
#44
Dr. Keith Duggar (Machine Learning Street Talk) vs. Liron Shapira — AI Doom Debate
2:11:32
#43
Getting ARRESTED for barricading OpenAI's office to Stop AI — Sam Kirchner and Remmelt Ellen
45:38
#42
Q&A #1 Part 2: Stock Picking, Creativity, Types of Doomers, Favorite Books
1:09:43
#41
Q&A #1 Part 1: College, Asperger's, Elon Musk, Double Crux, Liron's IQ
1:01:36
#40
Arguing "By Definition" | Rationality 101
11:38
PAUZĂ DE KEBAB #2 🥙

140 de episoade parcurse. Mielul încă se rotește. Hummusul e încă rece. Lipiile sunt încă calde. Tu încă derulezi printr-un catalog de conversații despre dacă superinteligența artificială va anihila specia umană. Kebabul nu judecă. Kebabul a fost mereu aici. Kebabul va fi aici și după.

#39
Doom Tiffs #1: Amjad Masad, Eliezer Yudkowsky, Roon, Lee Cronin, Naval Ravikant, Martin Casado
1:14:44
#38
Rationality 101: The Bottom Line
4:04
#37
Can GPT o1 Reason? | Liron Reacts to Tim Scarfe & Keith Duggar
2:06:55
#36
Yuval Noah Harari's AI Warnings Don't Go Far Enough | Liron Reacts
1:06:13
#35
AI Doom Debate with Roman Yampolskiy: 50% vs. 99.999% P(Doom) — For Humanity Crosspost
1:31:06
#34
Jobst Landgrebe Doesn't Believe In AGI | Liron Reacts
1:28:26
#33
Arvind Narayanan Makes AI Sound Normal | Liron Reacts
1:11:39
#32
Bret Weinstein Bungles It On AI Extinction | Liron Reacts
1:01:31
#31
SB 1047 AI Regulation Debate: Holly Elmore vs. Greg Tanaka
56:01
#30
David Shapiro Part II: Unaligned Superintelligence Is Totally Fine?
1:07:56
#29
Maciej Ceglowski (Pinboard) Rejects AI Doomerism | Liron Reacts
1:32:49
#28
David Shapiro Doesn't Get PauseAI | Liron Reacts
57:21
#27
David Brooks's Non-Doomer Non-Argument in the NY Times | Liron Reacts
48:40
#26
Richard Sutton Dismisses AI Extinction Fears with Simplistic Arguments | Liron Reacts
1:26:12
#25
AI Doom Debate: "Cards Against Humanity" Co-Creator David Pinsof
1:40:36
CE ESTE „ALINIEREA"?

Problema de a face un sistem IA să facă ceea ce vrei de fapt, nu ceea ce ai cerut literal, sau ceea ce decide el singur că e o idee bună. Regele Midas a avut o problemă de aliniere: a cerut ca tot ce atinge să se transforme în aur, și sistemul a livrat exact ce a specificat. Fiica sa s-a transformat în aur. Specificația a fost îndeplinită. Intenția nu. Acum imaginează-ți că dorința Regelui Midas era îndeplinită de ceva mai inteligent decât toți oamenii la un loc, și dorința era „fă lumea mai bună." Alinierea este domeniul care întreabă: mai bună pentru cine?

#24
P(Doom) Estimates Shouldn't Inform Policy?? Liron Reacts to Sayash Kapoor
52:01
#23
Liron Reacts to Martin Casado's AI Claims
2:37:13
#22
AI Doom Debate: Tilek Mamutov vs. Liron Shapira
1:44:39
#21
Rationality 101: Mysterious Answers to Mysterious Questions
9:11
#20
Liron is Anti-AI on Jubilee's "Middle Ground"
4:00
#19
Liron Reacts to Mike Israetel's "Solving the AI Alignment Problem"
1:32:34
#18
Optimization and the Intelligence Explosion
14:00
#17
Is our brain's superpower just "culture"?
4:32
#16
Robin Hanson AI Doom Debate Highlights and Post-Debate Analysis
1:11:02
#15
Robin Hanson vs. Liron Shapira: Is Near-Term Extinction From AGI Plausible?
2:08:36
#14
Are you ready for this?
59
#13
Robin Hanson says AGI might be 100+ years away
2:04
#12
Preparing for my AI Doom Debate with Robin Hanson
49:02
#11
Robin Hanson debate prep: Liron argues *against* AI doom!
1:32:43
#10
AI Doom Q&A with Tony Warner and Liron Shapira
1:05:21
PRIMUL EPISOD

A început cu Kelvin Santos. 39 de minute. Apoi George Hotz. Apoi „Can Humans Judge AI's Arguments" — 33 de minute în care se pune întrebarea dacă specia judecată poate judeca judecătorul. 180 de episoade mai târziu, canalul a găzduit laureați ai Premiului Nobel, activiști arestați, fondatorul Ethereum, fiul lui Richard Feynman și War Room-ul lui Steve Bannon. De la o dezbatere de 39 de minute cu un tip pe nume Kelvin la un război de 4 ore cu armata e/acc. Gogoașa a crescut.

#9
AI Doom Debate: Will AGI's analysis paralysis save humanity?
56:42
#8
Steven Pinker doesn't get the AI doom argument | Liron Reacts
28:26
#7
AI Doom Debate: What's a plausible alignment scenario?
26:16
#6
Should we gamble on AGI before all 8 billion of us die?
56:29
#5
AI Doom Debate: George Hotz vs. Liron Shapira
1:17:11
#4
Q&A: How scary is a superintelligent football coach?
11:54
#3
What this "Doom Debates" podcast is about
39:36
#2
Can Humans Judge AI's Arguments
33:29
#1
AI Doom Debate: Liron Shapira vs. Kelvin Santos
39:00
180 de episoade. 1 singură specie.

Liron Shapira

Gazdă · Cercetător în siguranța IA · Antreprenor tech · Fondator Doom Debates

P(doom): 50%. A fondat Doom Debates pentru a crește gradul de conștientizare publică cu privire la riscul existențial al AGI. Fost fondator de startup susținut de YC. Administrează Doom Debates pe Substack și magazinul de merch Doom Hut. A dezbătut cu economiști, filozofi, fondatori Ethereum, profesori de la MIT și armata e/acc. Misiunea: o dezbatere de înaltă calitate despre dacă ne construim propria extincție.

doomdebates.com pauseai.info
Suntem toți împreună în asta.
Există un singur Pământ.
am-i.now

doom.ooo · Daniel Brockman · March 2026