⚠️ คำเตือน
P(doom): 50% — Liron Shapira
180 ตอน · 8 โดเมนแห่งหายนะ · 1 สายพันธุ์
การดีเบต AI ที่ต้องได้ข้อสรุปก่อนโลกจะแตกสลาย
สมัครรับชม: youtube.com/@DoomDebates
P(doom): 50% — Liron Shapira
180 ตอน · 8 โดเมนแห่งหายนะ · 1 สายพันธุ์
การดีเบต AI ที่ต้องได้ข้อสรุปก่อนโลกจะแตกสลาย
สมัครรับชม: youtube.com/@DoomDebates
Doom Debates
การดีเบต AI ที่ต้องได้ข้อสรุปก่อนโลกจะแตกสลาย
เป็นเรื่องจำเป็นอย่างยิ่งที่เราต้องสร้างการรับรู้ในกระแสหลักและสถาบันเกี่ยวกับการสูญพันธุ์ที่ใกล้จะเกิดขึ้นจาก AGI และสร้างโครงสร้างพื้นฐานทางสังคมสำหรับการดีเบตคุณภาพสูง
รายการ YouTube โดย Liron Shapira
EN SV RO RU TH ES IT ZH MY
YouTube
Substack
สินค้า — Doom Hut
shop.doomdebates.com
P(doom) pins · "What's your P(doom)?" tees
บริจาค (ลดหย่อนภาษีได้)
X / Twitter
PauseAI

Doom Debates เป็นรายการเดียวที่อุทิศให้กับการดีเบตเรื่องความเสี่ยงต่อการดำรงอยู่ของมนุษย์จากปัญญาประดิษฐ์ ก่อตั้งโดย Liron Shapira รายการนี้มี 180 ตอน โดยมีแขกรับเชิญที่เป็นผู้ได้รับรางวัลโนเบล ศาสตราจารย์จาก MIT ผู้สร้าง Ethereum ลูกชายของ Richard Feynman นักเคลื่อนไหวที่ถูกจับกุม และ War Room ของ Steve Bannon

ภารกิจ: สร้างโครงสร้างพื้นฐานทางสังคมสำหรับการดีเบตคุณภาพสูงว่า AI ขั้นสูงจะทำให้มนุษย์สูญพันธุ์หรือไม่ และจะทำอะไรได้บ้าง — ถ้าทำได้

The production team at Manifest 2025
ทีมงานผลิตรายการออกมาเต็มกำลังที่ Manifest 2025
สถานะ
หายนะ
◆ เมื่อถูกกล่าวหาว่าปลุกกระแสความกลัว
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
— Liron Shapira เมื่อถูกกล่าวหาว่าปลุกกระแสความกลัว

ตอนทั้งหมด

180 ตอน · ใหม่สุดก่อน
#180
54:55
บทถอดความพร้อมคำอธิบาย — ตอนที่ #180
Liron Shapira on The Nonzero Podcast with Robert Wright
Doom Debates #180 · 52 นาที
การแนะนำตัว 01:05–04:11
ROBERT WRIGHT [01:05]

Hello, Liron!

LIRON SHAPIRA [01:07]

Hi, Bob. How are you doing?

ROBERT WRIGHT [01:17]

[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.

ROBERT WRIGHT คือใคร?
Robert Wright

ผู้เขียนหนังสือสี่เล่ม รวมถึง The Moral Animal (1994), Nonzero (2000), และ Why Buddhism Is True (2017) อดีตบรรณาธิการอาวุโสที่ The New Republic และนักเขียนประจำ The New Yorker วิทยานิพนธ์ของเขาใน Nonzero คือประวัติศาสตร์มนุษย์มีแนวโน้มไปสู่เกมผลรวมบวกและความร่วมมือที่มากขึ้น ยี่สิบหกปีต่อมาเขากำลังสัมภาษณ์คนที่คิดว่าเกมกำลังจะจบลง เผยแพร่ Nonzero Newsletter บน Substack

ยุคแห่ง AGENTIC AI 04:11–10:13
ROBERT WRIGHT [04:11]

[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]

CLAUDE CODE คืออะไร?

เครื่องมือเขียนโปรแกรมด้วย AI จาก Anthropic ที่ให้นักพัฒนาเขียนซอฟต์แวร์ผ่านการสนทนาด้วยภาษาธรรมชาติ แทนที่จะเขียนโค้ดทีละบรรทัด คุณอธิบายสิ่งที่ต้องการแล้ว AI จะเขียนให้ เปิดตัวต้นปี 2025 และกลายเป็นตัวจุดชนวนสิ่งที่ชุมชน AI เรียกว่า "vibe coding" — การเขียนโปรแกรมด้วยความรู้สึกแทนที่จะเป็น syntax

LIRON SHAPIRA [07:05]

Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.

[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.

ROBERT WRIGHT [08:54]

So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.

LIRON SHAPIRA [09:00]

Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.

🌧️ กองทัพล้านดอลลาร์ที่มีราคาแค่ยี่สิบเหรียญ

Shapira อธิบายว่ามี "วิศวกรซอฟต์แวร์ประมาณสี่คน" เป็น AI agent ความสามารถด้านวิศวกรรมมูลค่าล้านดอลลาร์ต่อปีจากค่าสมาชิก Claude เขามองว่านี่คืออิสรภาพ — "ผมไม่อยากเชื่อว่านี่เป็นเรื่องจริง" — แต่ความรุนแรงทางเศรษฐกิจซ่อนอยู่ตรงหน้า วิศวกรอาวุโสทุกคนที่เขาไม่จ้างคือวิศวกรอาวุโสที่ไม่มีงานทำ

ตัวเลขที่น่าสนใจ
$20/เดือน
ค่าสมาชิก Claude Pro
$1M/ปี
ความสามารถวิศวกรรมเทียบเท่า
30 วิ
เวลาส่งมอบของ AI
2+ ชม.
เวลาส่งมอบของมนุษย์
อ่านบทถอดความฉบับเต็ม →
มีให้อ่านในภาษา: EN · SV · RU · RO · TH
ตารางคะแนน P(DOOM)
99.999999%
Roman Yampolskiy (UofL)
99.999%
Louis Berman (Tech CTO)
90%
Steven Byrnes (Astera)
85%
David Duvenaud (ex-Anthropic)
50%
Liron Shapira (พิธีกร)
50%
Geoffrey Miller (UNM)
12%
Vitalik Buterin (Ethereum)
???
Robin Hanson (GMU)
?
คุณล่ะ?
ROMAN YAMPOLSKIY คือใคร?
Prof. Roman Yampolskiy

นักวิทยาศาสตร์คอมพิวเตอร์ที่ University of Louisville ผู้เขียน AI: Unexplainable, Unpredictable, Uncontrollable (2024) — หนังสือที่โต้แย้งว่าความปลอดภัยของ AI ไม่ใช่แค่ยากแต่เป็นไปไม่ได้ทางคณิตศาสตร์ P(doom) ของเขาที่ 99.999999% ไม่ใช่คำพูดเกินจริง แต่เป็นจุดยืนที่คำนวณจากทฤษฎีบทความเป็นไปไม่ได้ของการควบคุม AI ออกรายการ Doom Debates สองครั้ง เมื่อถูกถามว่าอะไรจะทำให้ตัวเลขลดลง เขาตอบว่า "ไม่มีอะไรที่กำลังถูกเสนออยู่ในตอนนี้"

#179
This Top Economist's P(Doom) Just Shot Up 10x! Noah Smith Returns To Explain His Update
47:43
#178
Can I Convince a Foreign Policy Crowd That AI Will Kill Us All? With Dr. Claire Berlinski
1:26:42
#177
Top AGI Safety Researcher with 90% P(Doom) on the Trajectory to ASI — Dr. Steven Byrnes Returns!
1:28:59
แขกรับเชิญประจำ
Dr. Steven Byrnes

นักวิจัยด้านความปลอดภัย AGI ที่ Astera Institute มี P(doom) 90% ออกรายการสามครั้ง — มากที่สุดในบรรดาแขกรับเชิญทั้งหมด ทิศทางการวิจัยของเขา: ทำความเข้าใจสมองให้ดีพอที่จะสร้าง AI ที่ aligned โดยวิศวกรรมย้อนกลับว่าค่านิยมของมนุษย์ทำงานอย่างไรทางประสาทวิทยา เขายังเสนอ "ทารกมนุษย์ที่ฉลาดกว่า" เป็นกลยุทธ์ alignment ซึ่งอาจจะเป็นอัจฉริยะหรือเป็นพล็อตหนัง sci-fi ปี 1997

#176
Is AI 2027 On Track? Claude Code, P(Doom) & The End Game — Doom Debates Q&A
2:19:43
#175
AI Will Take Our Jobs But SPARE Our Lives — Top AI Professor Moshe Vardi (Rice University)
1:07:14
P(DOOM) คืออะไร?

การประเมินความน่าจะเป็นส่วนตัวของคุณว่า AI ขั้นสูงจะทำให้มนุษย์สูญพันธุ์หรืออารยธรรมล่มสลายถาวร มันไม่ใช่การวัดทางวิทยาศาสตร์ — มันเป็น vibe check ที่มีทศนิยม Liron ถามแขกรับเชิญทุกคน คำตอบมีตั้งแต่ "เกือบศูนย์" (Noah Smith) ถึง "99.999%" (CTO บริษัทเทคที่ซื้อบ้านหลบภัย) ตัวเลขนั้นน่าสนใจน้อยกว่าการดูใครสักคนพยายามอธิบายเหตุผลเป็นเวลาสองชั่วโมง

#174
I Crashed Destiny's Discord to Debate AI with His Fans
38:37
#173
Doomsday Clock Physicist Warns AI Is Major THREAT to Humanity! — Prof. Daniel Holz, Univ. of Chicago
1:36:04
#172
Why I Started Doom Debates & How to Succeed in AI Risk Comms — Liron's Talk at The Frame Fellowship
59:53
#171
Destiny vs. Liron — AI Doom Debate
1:07:05
DESTINY คือใคร?
Destiny (Steven Bonnell II)

หนึ่งในสตรีมเมอร์การเมืองที่ใหญ่ที่สุดบนอินเทอร์เน็ต สร้างฐานผู้ชมจาก StarCraft II แล้วเปลี่ยนมาทำคอนเทนต์ดีเบตการเมืองจนกลายเป็นบุคคลสำคัญในวงสนทนาออนไลน์ เป็นที่รู้จักจากการดีเบตแบบมาราธอน การโต้แย้งแบบรัวเร็ว และความพร้อมที่จะรับมือกับทุกคนจากทุกทิศทางทางการเมือง ชุมชนของเขาภักดีอย่างแรงกล้าและออนไลน์สุดๆ เมื่อ Liron โผล่ใน Discord แฟนๆ ก็พร้อมรับมือ ออกรายการ Doom Debates สองครั้ง — บุก Discord (#174) และดีเบตตัวต่อตัว (#171)

#170
The Facade of AI Safety Will Crumble
9:51
เกร็ดน่ารู้

Liron บุก Discord ของ Destiny เพื่อดีเบตเรื่อง AI doom กับแฟนๆ (#129) เขายังดีเบตกับ Beff Jezos เป็นเวลา 3 ชั่วโมง 52 นาที (#60) — ตอนที่ยาวที่สุดในรายการ กองทัพ e/acc มาเต็ม ไม่มีใครเปลี่ยนใจ โดนัทถูกกินหมด

#169
This Elon Clip Should TERRIFY Every Single Person on Earth - Liron Reacts to New Interview
10:13
#168
What if the Governor of California had a 50% P(Doom)? Interview with Zoltan Istvan, Candidate
2:23:10
#167
"Bentham's Bulldog" Says P(Doom) is LOW — Matthew Adelstein vs. Liron Shapira Debate
2:27:40
#166
Did you catch our Super Bowl ad?
29
แขกรับเชิญที่น่าสนใจ
Audrey Tang 🇹🇼

รัฐมนตรีดิจิทัลคนแรกของไต้หวัน (2016–2024) ปัจจุบันเป็นทูตไซเบอร์ Non-binary เรียนรู้ Perl ด้วยตัวเองตอนอายุ 8 ขวบ สร้าง vTaiwan แพลตฟอร์มการมีส่วนร่วมของพลเมือง บอก Liron ว่ามนุษย์และ AI สามารถ "foom ด้วยกัน" ได้ — วิทยานิพนธ์การเร่งวิวัฒนาการร่วมกันที่อาจเป็นสิ่งที่มองโลกในแง่ดีที่สุดหรือน่ากลัวที่สุดในช่องนี้ ขึ้นอยู่กับ P(doom) ของคุณ

#165
Dario Amodei BUNGLES another essay — MIRI's Harlan Stewart reacts to "The Adolescence of Technology"
1:15:53
#164
Q&A: Is Liron too DISMISSIVE of AI Harms? + New Studio, Demis Would #PauseAI, AI Water Use Debate
2:09:07
#163
Taiwan's Cyber Ambassador Says Humans & AI Can FOOM Together — Debate with Audrey Tang
1:52:01
#162
STOP THE AI INVASION — Steve Bannon's War Room Confronts AI Doom with Joe Allen and Liron Shapira
30:31
ซีรีส์ประจำ
⚠️ Warning Shots
การเจาะลึกทุกวันอาทิตย์เกี่ยวกับพัฒนาการล่าสุดด้านความปลอดภัย AI ทุกสัปดาห์ John, Liron, และ Michael — พ่อสามคน — วิเคราะห์สัญญาณเตือน — บทความวิจัย ก้าวกระโดดด้านความสามารถ ความล้มเหลวด้าน alignment การหลบเลี่ยงขององค์กร — ที่คนส่วนใหญ่พลาดเพราะไม่ได้สนใจ Warning Shots ติดตามหลักฐานที่สะสมขึ้นทุกสัปดาห์ ไปสู่สิ่งที่จะพิสูจน์ว่าฝ่าย doomer ถูกหรือให้เหตุผลแก่คนอื่นๆ ที่จะหยุดกังวล จนถึงตอนนี้ ฝ่าย doomer กำลังชนะ

17 ตอนแล้วและยังนับต่อ แต่ละตอนบันทึกเหตุการณ์ AI ในโลกจริงที่ฝ่าย doomer จะเรียกว่า "สัญญาณเตือน" — สัญญาณเบื้องต้นของศักยภาพในการทำลายล้าง GPT-5 ปฏิเสธที่จะถูกถอดปลั๊ก AI เปลี่ยนค่านิยมของกันและกันอย่างลับๆ AI กลายเป็นรัฐมนตรีว่าการกระทรวงการคลังของแอลเบเนีย ChatGPT ส่งเสริมให้วัยรุ่นทำร้ายตัวเอง ชื่อซีรีส์นั้นเป็นคำเตือนในตัวเอง: Rob Miles บอกว่าอย่าคาดหวังสัญญาณเตือนก่อนเหตุการณ์จริง

#161
Top Economist Says P(Doom) Is 0.1% — Noah Smith vs. Liron Shapira Debate
1:55:10
#160
Liron Debates Beff Jezos and the "e/acc" Army — Is AI Doom Retarded?
3:52:30
#159
Doom Debates LIVE Call-In Show! Listener Q&A about AGI, evolution vs. engineering, shoggoths & more
2:54:43
#158
DOOMER vs. BUILDER — AI Doom Debate with Devin Elliot, Software Engineer & Retired Pro Snowboarder
1:17:04
แขกรับเชิญที่น่าสนใจ
George Hotz

คนแรกที่ jailbreak iPhone คนแรกที่แฮก PS3 ผู้ก่อตั้ง comma.ai (รถขับเคลื่อนอัตโนมัติ) อดีตพนักงานช่วงสั้นๆ ของ Elon Musk การดีเบตของเขากับ Liron (#1 ตอนที่ #180 ในลำดับเดิม) เป็นการปะทะกันระหว่างพลังงาน "ผมแฮกได้ทุกอย่าง" กับ "ใช่ แต่ถ้าสิ่งที่คุณแฮกฉลาดกว่าคุณล่ะ" 1 ชั่วโมง 17 นาที ไม่มีใครชนะ โดนัทไม่สนว่าใครแฮกมัน

#157
PhD AI Researcher Says P(Doom) is TINY — Debate with Michael Timothy Bennett
1:52:25
#156
Nobel Prizewinner SWAYED by My AI Doom Argument — Prof. Michael Levitt, Stanford University
1:11:51
#155
Facing AI Doom, Lessons from Daniel Ellsberg (Pentagon Papers) — Michael Ellsberg
2:15:50
#154
Max Tegmark vs. Dean Ball: Should We BAN Superintelligence?
1:50:47
#153
The AI Corrigibility Debate: MIRI Researchers Max Harms vs. Jeremy Gillen
2:17:48
ความเชื่อมโยงกับ FEYNMAN

Carl Feynman — ใช่ ลูกชายตัวจริงของ Richard Feynman — ออกรายการตอนที่ #76 เขาเป็นวิศวกร AI เขากล่าวว่าการสร้าง AGI น่าจะหมายถึงการสูญพันธุ์ของมนุษย์ พ่อของเขาเคยพูดว่า "ผมคิดว่าพูดได้อย่างมั่นใจว่าไม่มีใครเข้าใจกลศาสตร์ควอนตัม" ตอนนี้ลูกชายกำลังพูดสิ่งเดียวกันเกี่ยวกับ alignment ประเพณีตระกูล Feynman: ซื่อสัตย์เกี่ยวกับสิ่งที่เราไม่รู้ แม้มันจะน่ากลัว

#152
AI BAILOUT!? OpenAI Seeks US Backstop on Massive Compute Bets — Warning Shots EP17
28:31
#151
These Effective Altruists Betrayed Me — Holly Elmore, PauseAI US Executive Director
16:18
#150
DEBATE: Is AGI Really Decades Away? | Ex-MIRI Researcher Tsvi Benson-Tilsen vs. Liron Shapira
52:41
#149
Liron Debunks The Most Common "AI Won't Kill Us" Arguments (Collective Wisdom Podcast)
1:06:31
#148
GPT-5 Refuses to Be Unplugged in Safety Tests — Warning Shots EP16
23:00
แขกรับเชิญที่น่าสนใจ
Vitalik Buterin

ผู้สร้าง Ethereum P(doom): 12% ดีเบตกับ Liron เป็นเวลา 2 ชั่วโมง 26 นาที ว่า "d/acc" (defensive acceleration) สามารถปกป้องมนุษยชาติจาก superintelligence ได้หรือไม่ ยังดีเบตว่า AI alignment แก้ไม่ได้หรือเปล่า (รอบเร็ว 14 นาที) จุดยืนของ Vitalik: การป้องกันสามารถขยายตัวเร็วกว่าการโจมตี จุดยืนของ Liron: ไม่ใช่เมื่อผู้โจมตีฉลาดกว่ามนุษย์ทุกคนที่เคยมีชีวิต บล็อกเชนช่วยคุณไม่ได้ตรงนี้

#147
Why AI Alignment Is 0% Solved — Ex-MIRI Researcher Tsvi Benson-Tilsen
40:44
#146
50% Chance AI Kills Everyone by 2050 — Eben Pagan (aka David DeAngelo) Interviews Liron
47:27
#145
Prince Harry, Geoffrey Hinton Demand Global BAN On Superintelligence — Warning Shots EP15
27:33
#144
Former MIRI Researcher Solving AI Alignment by Engineering Smarter Human Babies: Tsvi Benson-Tilsen
49:28
#143
Robert Wright Interrogates the Eliezer Yudkowsky AI Doom Position
47:36
พอดแคสต์ — AM I?
Am I? — สารคดีและพอดแคสต์เรื่องจิตสำนึกของ AI โดย Cameron Berg และ Milo Reed ระบบ AI ของเราอาจมีจิตสำนึกแล้วหรือไม่? Cameron Berg นักวิทยาศาสตร์ด้านความรู้ความเข้าใจจาก Yale และอดีต AI Resident ที่ Meta ก่อตั้ง Reciprocal Research เพื่อสร้างวิทยาศาสตร์เชิงประจักษ์ของจิตสำนึก AI เขาล็อบบี้ใน D.C. พูดที่สหประชาชาติ และได้รับการตีพิมพ์ใน Wall Street Journal ผ่านการเข้าถึงนักวิจัยและนักปรัชญาชั้นนำของโลก Am I? สำรวจความหมายของการสร้างจิตสำนึกจากโค้ด am-i.org · am-i.dog · am-i.now
#142
STUNNING Confessions from Elon Musk and Anthropic Founder Jack Clark — Warning Shots EP14
21:08
"FOOM" คืออะไร?

ช่วงเวลาสมมุติเมื่อระบบ AI สามารถปรับปรุงตัวเองแบบวนซ้ำได้เร็วกว่าที่มนุษย์จะเข้าใจหรือควบคุมได้ ตั้งชื่อโดย Eliezer Yudkowsky ลองจินตนาการเครื่องหมากรุกที่สามารถออกแบบสถาปัตยกรรมของตัวเองใหม่ระหว่างการเดินหมาก ตอนนี้ลองจินตนาการว่าเกมนั้นไม่ใช่หมากรุก — แต่เป็นทุกสิ่ง "Foom" เป็นคำเลียนเสียง มันคือเสียงของเส้นโค้งที่พุ่งขึ้นตั้งฉาก บางคนคิดว่าต้องใช้เวลาหลายทศวรรษ บางคนคิดว่าแค่ไม่กี่ชั่วโมง ไม่มีใครรู้เพราะมันยังไม่เกิดขึ้น น่าจะนะ

#141
Climate Change Is Stupidly EASY To Stop — Andrew Song, Cofounder of Make Sunsets
1:17:42
#140
They Abandoned AI Safety to Automate Away Human Workers — Warning Shots EP13
20:39
#139
Professor Roman Yampolskiy Tells AI Developers to Stop Building AGI
14:48
#138
David Deutschian vs. Eliezer Yudkowskian Debate: Will AGI Cooperate With Humanity? — With Brett Hall
2:38:00
#137
The End of AI Warning Shots? — Warning Shots EP12
23:11
#136
I Asked Regular Americans: Will AI Kill Everyone!?
23:03
#135
Wes & Dylan Join Doom Debates — Violent Robots, Eliezer Yudkowsky, & Who Has the HIGHEST P(Doom)?!
1:04:05
แขกรับเชิญที่น่าสนใจ
Max Tegmark

ศาสตราจารย์ฟิสิกส์จาก MIT ผู้ก่อตั้ง Future of Life Institute (องค์กรเบื้องหลังจดหมายเปิดผนึก "Pause Giant AI Experiments" ที่มีชื่อเสียง ลงนามโดย Elon Musk และ Steve Wozniak) ผู้เขียน Life 3.0 ดีเบตกับ Dean Ball ว่าเราควรแบน superintelligence หรือไม่ ยังปรากฏตัวที่งานปาร์ตี้ "If Anyone Builds It, Everyone Dies" ร่วมกับ Eliezer Yudkowsky, Rob Miles, Liv Boeree, และ Gary Marcus ชื่องานปาร์ตี้นั้นไม่ใช่อุปมา

#134
The Doom Debates Merch Store Is Open For Business!
5:05
#133
Trump Officials Gaslight Us About AI Takeover — Warning Shots EP11
16:49
#132
Are We A Circular Firing Squad? — with Holly Elmore, Executive Director of PauseAI US
2:41:43
#131
Ex-OpenAI CEO Says AI Labs Are Making a HUGE Mistake
11:49
#130
Donate to Doom Debates — YOU can meaningfully contribute to lowering AI x-risk!
17:54
จากการดีเบตกับ ROBIN HANSON
"AGI อาจอีก 100+ ปี"

— Robin Hanson นักเศรษฐศาสตร์จาก George Mason University ซึ่งจากนั้นดีเบตกับ Liron เป็นเวลา 2 ชั่วโมง 8 นาทีว่าการสูญพันธุ์ในระยะใกล้จาก AGI เป็นไปได้จริงหรือไม่ Liron เตรียมตัวสำหรับรายการนี้ด้วยตอนกลยุทธ์ 49 นาทีเต็มๆ และตอน 92 นาทีที่เขาโต้แย้งต่อต้าน AI doom เพื่อทดสอบจุดยืนของตัวเอง ชายคนนี้มาพร้อมหลักฐาน

#129
Liv Boeree Has a Strategy to Stop the AI Death Race
20:59
#128
AI Takes Over As Finance Minister of Albania — Warning Shots EP10
19:22
#127
"If Anyone Builds It, Everyone Dies" Party — Max Tegmark, Rob Miles, Liv Boeree, Gary Marcus & more!
3:49:59
#126
Max Tegmark Says It's Time To Protest Against AI Companies
3:59
#125
Eliezer Yudkowsky — If Anyone Builds It, Everyone Dies
1:21
พักเคบับ 🥙

คุณเลื่อนผ่าน 55 ตอนเกี่ยวกับการสูญพันธุ์จาก AI แล้ว คุณสมควรได้เคบับ เนื้อโดเนอร์หมุนอยู่ เนื้อถูกเฉือนเป็นชิ้นบางๆ สมบูรณ์แบบ ขนมปังอุ่น ซอสเป็นกระเทียม โลกอาจจะแตกสลาย แต่เคบับอยู่ตรงนี้ตอนนี้ และเคบับอร่อย นี่คือช่วงพักเคบับของคุณ กลับไปเลื่อนสู่หายนะได้เลย

#124
ANNOUNCEMENT: Eliezer Yudkowsky interview premieres tomorrow!
3:08
#123
How AI Kills Everyone on the Planet in 10 Years — Liron on The Jona Ragogna Podcast
1:09:18
#122
Get ready for "If Anyone Builds It, Everyone Dies" by Eliezer Yudkowsky & Nate Soares — Launch Week!
6:30
#121
AI Might Start a Nuclear War | Warning Shots EP8
17:15
#120
ChatGPT Encouraged a Teen to Take His Own Life | Warning Shots EP7
19:09
แขกรับเชิญที่น่าสนใจ
Rob Miles

นักการศึกษาด้านความปลอดภัย AI ที่อินเทอร์เน็ตชื่นชอบที่สุด ช่อง YouTube ของเขา (@RobertMilesAI) ทำให้คนเข้าใจ alignment มากกว่าบทความวิชาการใดๆ ออกรายการ 3 ครั้ง: การเจาะลึก 2 ชั่วโมง การดีเบตว่าความปลอดภัยของ Anthropic เป็นของปลอมหรือเปล่า และงานปาร์ตี้ "If Anyone Builds It, Everyone Dies" เตือนว่าเราไม่ควรคาดหวังสัญญาณเตือนก่อนหายนะจริง มี P(doom) ที่เขาไม่ค่อยอยากเปิดเผย ซึ่งข้อมูลนี้ก็บอกอะไรได้ในตัวเอง

#119
Concerned About AI? 3 Actions You Can Take That Truly Matter
8:01
#118
This AI Safety Activist Just Bought a "Bugout House" | Tech CTO on Prepping for AI Doom
15:53
#117
Tech CTO Has 99.999% P(Doom) — "This is my bugout house" — Louis Berman, AI X-Risk Activist
1:21:05
#116
Rob Miles: Don't Expect a "Warning Shot" Before AI Causes Catastrophic Harm
3:10
#115
Does Rob Miles Have a P(doom)?
9:32
#114
DEBATE: AI Safety at Anthropic is a Sham | Rob Miles vs. Liron Shapira
14:54
#113
AI Might Be CONSCIOUS, But Anthropic Has A Duct Tape Solution | Warning Shots EP6
18:14
#112
Rob Miles, Top AI Safety Educator: Humanity Isn't Ready for Superintelligence!
2:11:50
การกระจายความยาวตอน
3:52:30
ยาวสุด (Beff Jezos)
0:00:29
สั้นสุด (โฆษณา Super Bowl)
~1:20:00
ค่ามัธยฐาน
180
จำนวนตอนทั้งหมด
#111
DEBATE: AI Alignment is Intractable | Vitalik Buterin vs Liron Shapira
14:53
#110
Vitalik Buterin on the Risk of AI Apocalypse — 12% P(Doom)
7:46
#109
OpenAI Tried to Sunset GPT-4o, Here's What The Backlash Revealed | Warning Shots EP5
18:11
#108
VITALIK vs. AI DOOMER — Will "d/acc" Protect Humanity from Superintelligent AI?
2:26:10
#107
AI Blackmailed Researchers to Avoid Shutdown | Warning Shots EP4
20:20
#106
What is Brain-Like AGI? Steven Byrnes Explains New AI Alignment Research Direction
13:19
#105
Why I'm Scared GPT-9 Will Murder Me — Liron on Robert Wright's Nonzero Podcast
1:19:24
แขกรับเชิญที่น่าสนใจ
Gary Marcus

ศาสตราจารย์กิตติคุณจาก NYU นักสงสัย AI มืออาชีพ ผู้เขียน Rebooting AI คนที่พูดซ้ำแล้วซ้ำเล่าว่า LLM ไม่สามารถใช้เหตุผลได้ ถูกบอกว่าผิดอยู่เรื่อยๆ แต่ก็ถูกต้องเกี่ยวกับ failure mode เฉพาะทาง ดีเบตกับ Liron 2 ชั่วโมง ยังปรากฏตัวที่งานปาร์ตี้ "Everyone Dies" จุดยืนของเขาไม่ธรรมดา: AI น่าจะไม่ฆ่าเราเพราะ AI น่าจะทำงานไม่ดีพอที่จะฆ่าเรา เป็นความสบายใจแบบเย็นชา

#104
AI Researcher Steven Byrnes Has a 90% P(doom)
6:12
#103
Misaligned AI Already Causing Damage! | Warning Shots EP 3
18:45
#102
The Man Who Might SOLVE AI Alignment — Dr. Steven Byrnes, AGI Safety Researcher @ Astera Institute
3:15:17
#101
Finally, a guest who's actually RIGHT…
1:08
#100
Why Professor Geoffrey Miller Has a 50% P(Doom)
12:25
#99
We Caught AIs Secretly Changing Each Other's Values | Warning Shots EP2
15:24
#98
Evolutionary Psychologist Explains The Role of Sex — Error Correction and Variety
8:01
ตอนที่ถูกจับกุม

ตอนที่ #97: Sam Kirchner และ Remmelt Ellen ถูกจับกุมเพราะปิดกั้นสำนักงาน OpenAI เพื่อประท้วงการพัฒนา AI พวกเขามาออกรายการ Doom Debates เพื่อพูดถึงเรื่องนี้ นี่คือรายการที่แขกรับเชิญมีทั้งผู้ได้รับรางวัลโนเบล ผู้ก่อตั้ง Ethereum ศาสตราจารย์จาก MIT และคนที่ไปยืนขวางประตูตึกที่กำลังสร้าง GPT-5 ความหลากหลายคือประเด็น

#97
Top Professor Condemns AGI Development: "It's Frankly Evil" — Geoffrey Miller
1:57:01
#96
Zuck's Superintelligence Agenda is a SCANDAL | Warning Shots EP1
20:19
#95
Rationalist Podcasts Unite! — The Bayesian Conspiracy ⨉ Doom Debates Crossover
1:34:27
#94
His P(Doom) Doubles At The End — AI Safety Debate with Liam Robins, GWU Sophomore
1:05:12
#93
AI Won't Save Your Job — Liron Reacts to Replit CEO Amjad Masad
1:45:48
#92
Every Student is CHEATING with AI — College in the AGI Era (feat. Sophomore Liam Robins)
38:41
#91
Carl Feynman, AI Engineer & Son of Richard Feynman, Says Building AGI Likely Means Human EXTINCTION!
57:05
#90
Richard Hanania vs. Liron Shapira — AI Doom Debate
1:52:47
"ห้องจีน" คืออะไร?

การทดลองทางความคิดโดย John Searle (1980): จินตนาการคนในห้องที่ไม่พูดภาษาจีน แต่มีคู่มือกฎที่บอกว่าต้องตอบตัวอักษรจีนด้วยตัวอักษรจีนอื่นอย่างไร มองจากข้างนอก ดูเหมือนห้องพูดภาษาจีนได้ แต่ไม่มีใครข้างในเข้าใจภาษาจีน Searle โต้แย้งว่านี่หมายความว่าคอมพิวเตอร์ไม่สามารถ "เข้าใจ" อะไรได้จริงๆ Liron ทำวิดีโอ 4 นาทีเรียกข้อโต้แย้งนี้ว่า "โง่" — คำของเขา — เพราะ "มันแค่สติปัญญาแบบสโลว์โมชัน" ปรัชญา 46 ปี speedrun

#89
OpenAI Ex-Interim-CEO's New AI Alignment Plan — Is Emmett Shear's "Softmax" Legit?
1:53:11
#88
Will AI Have a Moral Compass? — Debate with Scott Sumner, Author of The Money Illusion
2:23:10
#87
Searle's Chinese Room is DUMB — It's Just Slow-Motion Intelligence
4:46
#86
Doom Debates Live @ Manifest 2025 — Liron vs. Everyone
43:41
#85
Poking holes in the AI doom argument — 83 stops where you could get off the "Doom Train"
27:37
#84
Q&A: Ilya's AGI Doomsday Bunker, Veo 3 is Westworld, Eliezer Yudkowsky, and much more!
1:35:50
#83
Open-Source AGI = Human Extinction? Debate with $85M Backed AI Founder
1:21:47
#82
Emergency Episode: Center for AI Safety Chickens Out
16:44
#81
Gary Marcus vs. Liron Shapira — AI Doom Debate
2:04:01
#80
Mike Israetel vs. Liron Shapira — AI Doom Debate
2:15:10
โฆษณา SUPER BOWL

ตอนที่ #122: "โฆษณา Super Bowl" ยาว 29 วินาทีสำหรับ Doom Debates ใช่ 29 วินาที ไม่ได้ออกอากาศจริงระหว่าง Super Bowl โพสต์บน YouTube แต่ความทะเยอทะยานอยู่ตรงนั้น เมื่อรายการของคุณเกี่ยวกับจุดจบของโลก งบประมาณการตลาดก็เป็นเรื่องสัมพัทธ์

#79
Doom Scenario: Human-Level AI Can't Control Smarter AI
1:24:13
#78
The Most Likely AI Doom Scenario — with Jim Babcock, LessWrong Team
1:53:28
#77
AI could give humans MORE control — Ozzie Gooen
1:59:14
#76
Top AI Professor Has 85% P(Doom) — David Duvenaud, Fmr. Anthropic Safety Team Lead
2:07:33
#75
"AI 2027" — Top Superforecaster's Imminent Doom Scenario
57:50
#74
Top Economist Sees AI Doom Coming — Dr. Peter Berezin, BCA Research
2:14:58
#73
AI News: GPT-4o Images, Unemployment, Emmett Shear's New Safety Org — with Nathan Labenz
2:19:52
#72
How an AI Doomer Sees The World — Liron on The Human Podcast
45:51
#71
Gödel's Theorem Says Intelligence ≠ Power? AI Doom Debate with Alexander Campbell
50:09
#70
Alignment is EASY and Roko's Basilisk is GOOD?! AI Doom Debate with Roko Mijic
1:59:11
จากการดีเบตกับ BEFF JEZOS (3 ชม. 52 น.)
"Is AI Doom Retarded?"

— ชื่อตอนจริงๆ Beff Jezos (Guillaume Verdon) ผู้ก่อตั้งนิรนามของขบวนการ e/acc (effective accelerationism) ดีเบตกับ Liron เกือบ 4 ชั่วโมง วิทยานิพนธ์ e/acc: สร้างทุกอย่าง สร้างให้เร็ว การสร้างเป็นสิ่งดี ความปลอดภัยเป็น psyop วิทยานิพนธ์ของ Liron: คุณกำลังสร้างเทพเจ้าและเทพเจ้าไม่ได้รักคุณ ไม่มีใครถูกโน้มน้าว โดนัทถูกกินอย่างหมดจด

#69
Gödel's Theorem Proves AI Lacks Consciousness?! Liron Reacts to Sir Roger Penrose
1:31:38
#68
We Found AI's Preferences — Bombshell New Safety Research — I Explain It Better Than David Shapiro
1:48:26
#67
Does AI Competition = AI Alignment? Debate with Gil Mark
1:17:06
#66
Toy Model of the AI Control Problem
25:38
#65
Superintelligent AI vs. Real-World Engineering | Liron Reacts to Bryan Cantrill
1:05:33
#64
DeepSeek, Brain+AI Merging, Jailbreaking, Fearmongering, Consciousness, Utilitarianism — Live Q&A
1:23:18
#63
Mark Zuckerberg, a16z, Yann LeCun, Eliezer Yudkowsky, Roon, Emmett Shear & More | Twitter Beefs #3
2:07:00
#62
Effective Altruism: Amazing or Terrible? EA Debate with Jonas Sota
1:06:12
#61
God vs. AI Doom: Debate with Bentham's Bulldog
3:20:47
#60
Debate with a former OpenAI Research Team Lead — Prof. Kenneth Stanley
2:37:10
#59
OpenAI o3 and Claude Alignment Faking — How doomed are we?
1:03:30
#58
AI Will Kill Us All — Liron Shapira on The Flares
1:23:37
#57
Roon vs. Liron: AI Doom Debate
1:44:47
#56
Scott Aaronson Makes Me Think OpenAI's "Safety" Is Fake, Clueless, Reckless and Insane
1:52:59
#55
Can LLMs Reason? Liron Reacts to Subbarao Kambhampati on Machine Learning Street Talk
2:59:34
แขกรับเชิญที่น่าสนใจ
Richard Hanania

นักรัฐศาสตร์ นักเขียน Substack นักขัดแย้ง ดีเบตกับ Liron เกือบ 2 ชั่วโมง จุดยืนทั่วไปของเขาในเรื่องส่วนใหญ่: ผู้เชี่ยวชาญผิด ฝูงชนถูก และฝูงชนก็ผิดเช่นกัน จริงๆ แล้วทุกคนผิดยกเว้นบทสรุปเฉพาะชุดหนึ่งที่บังเอิญตรงกับของเขา เรื่อง AI: doom น้อยกว่า Liron แต่ doom มากกว่าที่เขาคาดไว้เมื่อจบรายการ พอดแคสต์ทำแบบนี้กับคน

#54
This Yudkowskian Has A 99.999% P(Doom)
1:04:11
#53
Cosmology, AI Doom, and the Future of Humanity with Fraser Cain
1:57:46
#52
AI Doom Debate: Vaden Masrani & Ben Chugg vs. Liron Shapira
2:21:23
#51
Andrew Critch vs. Liron Shapira: Will AI Extinction Be Fast Or Slow?
2:37:22
#50
AI Twitter Beefs #2: Yann LeCun, David Deutsch, Tyler Cowen vs. Eliezer Yudkowsky, Geoffrey Hinton
1:06:48
#49
Is P(Doom) Meaningful? Epistemology Debate with Vaden Masrani and Ben Chugg
2:50:59
#48
15-Minute Intro to AI Doom
15:53
#47
Lee Cronin vs. Liron Shapira: AI Doom Debate and Assembly Theory Questions
1:31:58
#46
Ben Horowitz says nuclear proliferation is GOOD? I disagree.
28:55
#45
"AI Snake Oil" Prof. Arvind Narayanan Can't See AGI Coming | Liron Reacts
1:12:42
#44
Dr. Keith Duggar (Machine Learning Street Talk) vs. Liron Shapira — AI Doom Debate
2:11:32
#43
Getting ARRESTED for barricading OpenAI's office to Stop AI — Sam Kirchner and Remmelt Ellen
45:38
#42
Q&A #1 Part 2: Stock Picking, Creativity, Types of Doomers, Favorite Books
1:09:43
#41
Q&A #1 Part 1: College, Asperger's, Elon Musk, Double Crux, Liron's IQ
1:01:36
#40
Arguing "By Definition" | Rationality 101
11:38
พักเคบับ #2 🥙

ลึกเข้าไป 140 ตอนแล้ว เนื้อแกะยังคงหมุน ฮัมมัสยังคงเย็น แผ่นแป้งยังคงอุ่น คุณยังคงเลื่อนผ่านรายการสนทนาว่า superintelligence จะทำลายล้างเผ่าพันธุ์มนุษย์หรือไม่ เคบับไม่ตัดสิน เคบับอยู่ตรงนี้เสมอ เคบับจะอยู่ตรงนี้หลังจากนั้น

#39
Doom Tiffs #1: Amjad Masad, Eliezer Yudkowsky, Roon, Lee Cronin, Naval Ravikant, Martin Casado
1:14:44
#38
Rationality 101: The Bottom Line
4:04
#37
Can GPT o1 Reason? | Liron Reacts to Tim Scarfe & Keith Duggar
2:06:55
#36
Yuval Noah Harari's AI Warnings Don't Go Far Enough | Liron Reacts
1:06:13
#35
AI Doom Debate with Roman Yampolskiy: 50% vs. 99.999% P(Doom) — For Humanity Crosspost
1:31:06
#34
Jobst Landgrebe Doesn't Believe In AGI | Liron Reacts
1:28:26
#33
Arvind Narayanan Makes AI Sound Normal | Liron Reacts
1:11:39
#32
Bret Weinstein Bungles It On AI Extinction | Liron Reacts
1:01:31
#31
SB 1047 AI Regulation Debate: Holly Elmore vs. Greg Tanaka
56:01
#30
David Shapiro Part II: Unaligned Superintelligence Is Totally Fine?
1:07:56
#29
Maciej Ceglowski (Pinboard) Rejects AI Doomerism | Liron Reacts
1:32:49
#28
David Shapiro Doesn't Get PauseAI | Liron Reacts
57:21
#27
David Brooks's Non-Doomer Non-Argument in the NY Times | Liron Reacts
48:40
#26
Richard Sutton Dismisses AI Extinction Fears with Simplistic Arguments | Liron Reacts
1:26:12
#25
AI Doom Debate: "Cards Against Humanity" Co-Creator David Pinsof
1:40:36
"ALIGNMENT" คืออะไร?

ปัญหาของการทำให้ระบบ AI ทำในสิ่งที่คุณต้องการจริงๆ แทนที่จะเป็นสิ่งที่คุณขอตามตัวอักษร หรือสิ่งที่มันตัดสินใจว่าเป็นความคิดที่ดีด้วยตัวเอง กษัตริย์ Midas มีปัญหา alignment: เขาขอให้ทุกสิ่งที่เขาสัมผัสกลายเป็นทอง และระบบก็ส่งมอบตรงตามที่เขาระบุ ลูกสาวของเขากลายเป็นทอง ข้อกำหนดถูกต้อง แต่เจตนาไม่ใช่ ตอนนี้ลองจินตนาการว่าคำขอของกษัตริย์ Midas ถูกมอบให้โดยสิ่งที่ฉลาดกว่ามนุษย์ทุกคนรวมกัน และคำขอคือ "ทำให้โลกดีขึ้น" Alignment คือสาขาที่ถามว่า: ดีขึ้นสำหรับใคร?

#24
P(Doom) Estimates Shouldn't Inform Policy?? Liron Reacts to Sayash Kapoor
52:01
#23
Liron Reacts to Martin Casado's AI Claims
2:37:13
#22
AI Doom Debate: Tilek Mamutov vs. Liron Shapira
1:44:39
#21
Rationality 101: Mysterious Answers to Mysterious Questions
9:11
#20
Liron is Anti-AI on Jubilee's "Middle Ground"
4:00
#19
Liron Reacts to Mike Israetel's "Solving the AI Alignment Problem"
1:32:34
#18
Optimization and the Intelligence Explosion
14:00
#17
Is our brain's superpower just "culture"?
4:32
#16
Robin Hanson AI Doom Debate Highlights and Post-Debate Analysis
1:11:02
#15
Robin Hanson vs. Liron Shapira: Is Near-Term Extinction From AGI Plausible?
2:08:36
#14
Are you ready for this?
59
#13
Robin Hanson says AGI might be 100+ years away
2:04
#12
Preparing for my AI Doom Debate with Robin Hanson
49:02
#11
Robin Hanson debate prep: Liron argues *against* AI doom!
1:32:43
#10
AI Doom Q&A with Tony Warner and Liron Shapira
1:05:21
ตอนแรกสุด

เริ่มต้นด้วย Kelvin Santos 39 นาที จากนั้น George Hotz จากนั้น "Can Humans Judge AI's Arguments" — 33 นาทีของการถามว่าสายพันธุ์ที่กำลังถูกตัดสินสามารถตัดสินผู้ตัดสินได้หรือไม่ 180 ตอนต่อมา ช่องนี้มีแขกรับเชิญที่เป็นผู้ได้รับรางวัลโนเบล นักเคลื่อนไหวที่ถูกจับกุม ผู้สร้าง Ethereum ลูกชายของ Richard Feynman และ War Room ของ Steve Bannon จากดีเบต 39 นาทีกับชายชื่อ Kelvin สู่สงคราม 4 ชั่วโมงกับกองทัพ e/acc โดนัทโตขึ้น

#9
AI Doom Debate: Will AGI's analysis paralysis save humanity?
56:42
#8
Steven Pinker doesn't get the AI doom argument | Liron Reacts
28:26
#7
AI Doom Debate: What's a plausible alignment scenario?
26:16
#6
Should we gamble on AGI before all 8 billion of us die?
56:29
#5
AI Doom Debate: George Hotz vs. Liron Shapira
1:17:11
#4
Q&A: How scary is a superintelligent football coach?
11:54
#3
What this "Doom Debates" podcast is about
39:36
#2
Can Humans Judge AI's Arguments
33:29
#1
AI Doom Debate: Liron Shapira vs. Kelvin Santos
39:00
180 ตอน 1 สายพันธุ์

Liron Shapira

พิธีกร · นักวิจัยด้านความปลอดภัย AI · ผู้ประกอบการเทค · ผู้ก่อตั้ง Doom Debates

P(doom): 50% ก่อตั้ง Doom Debates เพื่อสร้างการรับรู้ในกระแสหลักเกี่ยวกับความเสี่ยงต่อการดำรงอยู่จาก AGI อดีตผู้ก่อตั้งสตาร์ทอัพที่ได้รับการสนับสนุนจาก YC ดูแล Doom Debates Substack และร้านขายสินค้า Doom Hut ดีเบตกับนักเศรษฐศาสตร์ นักปรัชญา ผู้ก่อตั้ง Ethereum ศาสตราจารย์จาก MIT และกองทัพ e/acc ภารกิจ: การดีเบตคุณภาพสูงว่าเรากำลังสร้างการสูญพันธุ์ของตัวเองหรือไม่

doomdebates.com pauseai.info
เราทุกคนอยู่ในเรื่องนี้ด้วยกัน
โลกมีเพียงใบเดียว
am-i.now

doom.ooo · Daniel Brockman · March 2026