Jun 23, 2023
Bizarre und gefährliche utopische Ideologie hat still und leise die Tech-Welt erobert
„Es prägt gerade unsere Welt“, sagt der Philosoph und Historiker Émile P. Torres. „Für die Menschen ist es wirklich wichtig zu verstehen, was dieses Bündel von Ideologien ist, weil es so riesig geworden ist
„Es prägt gerade unsere Welt“, sagt der Philosoph und Historiker Émile P. Torres.
„Für die Menschen ist es wirklich wichtig zu verstehen, was dieses Bündel von Ideologien ist, weil es so enormen Einfluss erlangt hat und unsere Welt jetzt prägt und sie auch in absehbarer Zukunft prägen wird“, sagt der Philosoph und Historiker Émile P. Torres . In dieser Folge von „Movement Memos“ diskutieren Moderatorin Kelly Hayes und Torres, was Aktivisten über Langfristigkeit und TESCREAL wissen sollten.
Musik von Son Monarcas & David Celeste
Hinweis: Dies ist eine Eilabschrift und wurde aus Gründen der Klarheit leicht bearbeitet. Die Kopie liegt möglicherweise nicht in ihrer endgültigen Form vor.
Kelly Hayes : Willkommen bei „Movement Memos“, einem Truthout-Podcast über Solidarität, Organisation und die Arbeit, Veränderungen herbeizuführen. Ich bin Ihre Gastgeberin, Autorin und Organisatorin Kelly Hayes. Heute sprechen wir über Langfristigkeit, und ich kann einige von Ihnen bereits sagen hören: „Was zum Teufel ist das?“ Deshalb ist es so wichtig, dass wir dieses Gespräch führen. Langfristigkeit ist eine Denkrichtung, die im Silicon Valley und in weiten Teilen der Technologiewelt an Popularität gewonnen hat, und es ist eine Ideologie, die in relativ kurzer Zeit große Fortschritte gemacht hat. Befürworter sagen, es handele sich um „eine Reihe ethischer Ansichten, die sich mit dem Schutz und der Verbesserung der langfristigen Zukunft befassen“, was harmlos oder im Grunde sogar gut klingt. Aber wie wir heute besprechen werden, sind die Ideen, auf die sich Langzeitisten berufen, sektiererisch und entwerten oft das Leben und die Freiheit der Menschen, die in der Gegenwart leben, und leider steckt derzeit viel Macht und Geld dahinter. Tatsächlich hat der Informatiker Timnit Gebru argumentiert, dass Langfristigkeit für die Technologiewelt zu dem geworden ist, was Scientology für Hollywood seit langem ist – ein nahezu unausweichliches Einflussnetzwerk, das über Erfolg oder Misserfolg von Anhängern und Nichtanhängern entscheiden kann.
Einer der Gründe, warum ich Langfristdenken so beängstigend finde, ist, dass einige der klügsten Leute, die ich kenne, immer noch nicht verstehen, was es ist oder warum es eine Bedrohung darstellt, obwohl es finanziell, politisch und institutionell stark an Dynamik gewonnen hat. Ich wollte etwas dagegen tun. Unser erster Episodenblock in dieser Staffel wird sich daher mit technischen Themen befassen, darunter auch mit dem, was Aktivisten und Organisatoren über künstliche Intelligenz wissen müssen, und mit einer Diskussion über die Art des Geschichtenerzählens, die wir brauchen, um den kommenden kultigen Ideen zu widerstehen raus aus dem Silicon Valley und der Tech-Welt.
Heute hören wir von Émile P. Torres. Émile ist ein Philosoph und Historiker, dessen Arbeitsschwerpunkt auf existenziellen Bedrohungen der Zivilisation und der Menschheit liegt. Sie haben zu einem breiten Themenspektrum veröffentlicht, darunter maschinelle Superintelligenz, neue Technologien und religiöse Eschatologie sowie die Geschichte und Ethik des menschlichen Aussterbens. Ihr bevorstehendes Buch ist „Human Extinction: A History of the Science and Ethics of Annihilation“. Ich bin ein großer Fan von Émiles Arbeit und freue mich, dass Sie alle ihre Analyse der Langfristigkeit hören und erfahren, warum wir andere Organisatoren dringend darüber aufklären müssen. Ich bin mir sicher, dass, sobald die meisten Menschen verstehen, worum es bei Langfristigkeit und dem größeren TESCREAL-Ideologiebündel geht (und wir werden gleich erklären, was wir mit TESCREAL meinen), viele Menschen besorgt, entsetzt oder einfach nur sein werden Ich bin angewidert und verstehe, dass diesen Ideen Widerstand geleistet werden muss. Aber wenn eine Bewegung, die von Milliardären unterstützt wird, ohne das Bewusstsein der meisten Aktivisten und gewöhnlichen Menschen so viel politische, finanzielle und institutionelle Dynamik gewinnt, sind wir im Grunde genommen nichts weiter. Deshalb hoffe ich, dass diese Episode uns dabei helfen kann, strategisch darüber nachzudenken, was es bedeutet, diesen Ideen aktiv entgegenzutreten.
Es ist übrigens großartig, nach einer einmonatigen Pause, in der ich viel geschrieben habe, zurück zu sein. Ich hatte auch die Gelegenheit, unsere Freunde der Stop Cop City-Bewegung während ihrer Aktionswoche in Atlanta zu unterstützen. Ich bin Truthout dankbar für einen Zeitplan, der es mir ermöglicht, meinen Aktivismus und meine anderen Schreibprojekte mit dieser Show, die mir so am Herzen liegt, in Einklang zu bringen. Dieser Podcast soll als Ressource für Aktivisten, Organisatoren und Pädagogen dienen, damit wir Menschen mit dem Wissen und der Analyse ausstatten können, die sie benötigen, um transformative Veränderungen herbeizuführen. Wie unsere langjährigen Zuhörer wissen, ist Truthout ein Gewerkschaftsladen, wir haben während der Pandemie niemanden entlassen und wir haben die besten Familien- und Krankheitsurlaubsregelungen in der Branche. Wenn Sie diese Arbeit unterstützen möchten, können Sie unseren Newsletter abonnieren oder auf trueout.org spenden. Sie können die Show auch unterstützen, indem Sie Ihre Lieblingsfolgen teilen, Rezensionen auf den von Ihnen genutzten Streaming-Plattformen hinterlassen und Movement Memos abonnieren, wo immer Sie Ihre Podcasts erhalten. Ein besonderer Dank möchte ich auch an unsere Unterstützer richten, die monatlich spenden, um uns zu unterstützen, denn Sie alle sind der Grund dafür, dass ich immer noch einen Job habe, und ich liebe Sie dafür.
Und deshalb bin ich so dankbar, dass Sie alle in unserer neuen Staffel wieder hier bei uns sind, und ich hoffe, dass Ihnen die Show gefällt.
[musikalisches Zwischenspiel]
Emile P. Torres : Mein Name ist Émile P. Torres, und ich bin ein Philosoph und Historiker, der in Deutschland an der Leibniz-Universität lebt. Und meine Pronomen sind they/them. In den letzten zehn Jahren und einigen weiteren Jahren konzentrierte sich meine Arbeit auf existenzielle Bedrohungen für die Menschheit und die Zivilisation.
Lange Zeit war ich einer bestimmten Weltanschauung sehr verbunden, die ich jetzt mit dem TESCREAL-Ideologiebündel beschreiben würde. In den letzten vier oder fünf Jahren bin ich zu einem lautstarken Kritiker dieser Gruppe von Ideologien geworden.
Langfristigkeit ist also eine Ideologie, die aus der Gemeinschaft des effektiven Altruismus hervorgegangen ist. Das Hauptziel effektiven Altruismus besteht darin, die Menge an Gutem, die man in der Welt tut, zu maximieren. Letztendlich geht es darum, möglichst viele Leben positiv zu beeinflussen. Der Langfristismus entstand also, als effektive Altruisten erkannten, dass die Menschheit über einen extrem langen Zeitraum im Universum existieren könnte. Auf der Erde könnten wir beispielsweise noch etwa eine Milliarde Jahre überleben. Die zukünftige Zahl der Menschen könnte, wenn das passiert, wirklich enorm sein.
Carl Sagan schätzte 1983, dass es in Zukunft 500 Billionen Menschen geben könnte, wenn wir nur weitere 10 Millionen Jahre überleben würden. Das ist einfach eine enorme Zahl. Vergleicht man das mit der Zahl der Menschen, die bisher in der Menschheitsgeschichte gelebt haben, liegt die Schätzung bei etwa 117 Milliarden. Das ist es. 500 Billionen sind also einfach eine viel größere Zahl, und das sind nur die nächsten 10 Millionen Jahre. Auf der Erde haben wir möglicherweise noch eine Milliarde Jahre Zeit, in denen wir überleben könnten.
Wenn wir uns in den Weltraum ausbreiten, und insbesondere wenn wir uns in den Weltraum ausbreiten und zu digitalen Wesen werden, könnte die Zahl der Menschen in Zukunft astronomisch größer sein. Einer Schätzung zufolge könnte es allein in der Milchstraße 10 hoch 54 digitale Menschen geben. 10 bis 54, das ist eine Eins gefolgt von 45 Nullen. Wenn wir über die Milchstraße hinaus zu anderen Galaxien vordringen und uns über das gesamte zugängliche Universum ausbreiten, liegt die untere Schätzung bei 10 bis 58. Wieder eine Eins gefolgt von 58 Nullen, so viele zukünftige Menschen könnte es geben.
Wenn Sie also ein effektiver Altruist sind und Ihr Ziel darin besteht, möglichst viele Menschen zu beeinflussen, und wenn die meisten Menschen, die existieren könnten, in ferner Zukunft existieren werden, sobald wir den Weltraum kolonisieren und diese digitalen Welten erschaffen, in denen Billionen und Abermillionen leben von Menschen leben, dann sollten Sie sich auf die sehr ferne Zukunft konzentrieren. Auch wenn die Wahrscheinlichkeit gering ist, dass Sie 1 % dieser 10 bis 58 digitalen Menschen in der Zukunft positiv beeinflussen werden, ist das immer noch ein viel größerer Erwartungswert, also ein viel größerer erwarteter Wert, als sich darauf zu konzentrieren aktuelle Menschen und aktuelle Probleme.
Um dies noch einmal ins rechte Licht zu rücken: Heute leben 1,3 Milliarden Menschen in multidimensionaler Armut. Es wäre also wirklich gut, sie aus der Armut zu befreien, aber einen positiven Einfluss auf 1 % von 10 der 58 künftigen digitalen Menschen im Universum zu haben, das ist eine viel, viel größere Zahl. Langfristigkeit war die Idee, dass vielleicht der beste Weg, das Beste zu tun, darin besteht, unseren Fokus von aktuellen Themen auf die sehr ferne Zukunft zu richten.
Das heißt nicht, dass aktuelle Themen völlig ignoriert werden sollten. Wir sollten uns nur insoweit auf sie konzentrieren, als dies die sehr ferne Zukunft beeinflussen könnte. Letztlich ist es nur ein Zahlenspiel. Das ist wirklich die Essenz der Langfristigkeit.
KH : Wir werden tiefer in die Implikationen dieser langfristigen Idee eintauchen, dass wir uns auf Ergebnisse in der fernen Zukunft konzentrieren und diese priorisieren müssen, aber zuerst werden wir ein wenig über das TESCREAL-Ideologiebündel sprechen. TESCREAL ist ein Akronym, das uns helfen kann zu verstehen, wie Langfristigkeit mit einigen anderen Ideologien und Konzepten zusammenhängt, die den neuen Wettlauf ins All sowie den Wettlauf um die Schaffung künstlicher allgemeiner Intelligenz vorantreiben. Es ist wichtig zu beachten, dass das Konzept der künstlichen allgemeinen Intelligenz (AGI) keinen Bezug zu den Produkten und Programmen hat, die derzeit weltweit als KI bezeichnet werden. Tatsächlich hat Emily Tucker, die Geschäftsführerin des Center on Privacy & Technology, argumentiert, dass Programme wie ChatGPT überhaupt nicht als künstliche Intelligenz bezeichnet werden sollten. Tucker schreibt, dass unsere öffentliche Akzeptanz von KI als Mittel zur Beschreibung aktueller Technologien das Produkt von „Marketingkampagnen und Marktkontrolle“ und von Technologieunternehmen ist, die Produkte mit einer „turbogeladenen“ Extraktionskapazität vorantreiben. Mithilfe umfangreicher Datensätze reihen große Sprachmodelle wie ChatGPT Wörter und Informationen auf eine Weise aneinander, die oft Sinn ergibt, manchmal aber auch nicht.
Die Kennzeichnung dieser Produkte als KI hat dazu beigetragen, die Illusion zu erzeugen, dass AGI unmittelbar vor der Tür steht. Für künstliche allgemeine Intelligenz gibt es keine Standarddefinition, sie bezieht sich jedoch normalerweise auf ein KI-System, dessen kognitive Fähigkeiten denen des Menschen entweder entsprechen oder diese übertreffen. Eine künstliche Superintelligenz wäre ein System, das die menschlichen Fähigkeiten bei weitem übersteigt. Wie wir in unserer nächsten Folge besprechen werden, sind wir der Entwicklung dieser Formen der KI ungefähr so nahe wie der Kolonisierung des Mars – das heißt, Elon Musks Behauptungen, dass wir den Mars bis in die 2050er Jahre kolonisieren werden, sind reine Science-Fiction. Lassen Sie uns nun darauf eingehen, was wir meinen, wenn wir das Akronym TESCREAL verwenden, und warum es wichtig ist.
UND : Das Akronym TESCREAL wurde von mir geprägt, als ich einen Artikel mit Dr. Timnit Gebru schrieb, einem weltbekannten Informatiker, der früher für Google arbeitete, und dann entlassen wurde, nachdem er Alarm wegen algorithmischer Voreingenommenheit geschlagen hatte. Wir versuchten zu verstehen, warum künstliche allgemeine Intelligenz (AGI) zum ausdrücklichen Ziel von Unternehmen wie OpenAI und DeepMind geworden ist, die von Milliarden von Dollar in großen Konzernen unterstützt werden.
DeepMind ist Eigentum von Google. OpenAI erhält einen Großteil seiner Finanzierung von Microsoft, ich glaube, bisher 11 Milliarden US-Dollar. Warum sind sie so besessen von AGI? Ich denke, ein Teil der Erklärung liegt auf der Hand, nämlich dass Microsoft und Google glauben, dass AGI enorme Gewinne einbringen wird. Durch die Schaffung dieser immer leistungsfähiger werdenden Systeme der künstlichen Intelligenz werden Gewinne in Milliardenhöhe erzielt. Ich denke, diese Erklärung ist unvollständig.
Man muss den Einfluss dieses TESCREAL-Ideologiebündels wirklich erkennen. Das Akronym steht für Transhumanismus, Extropianismus – es ist ein Bissen – Singularitarismus, Kosmismus, Rationalismus, effektiver Altruismus und Langfristigkeit. Ich habe es so beschrieben, dass Transhumanismus das Rückgrat des Bündels ist und Langfristigkeit sozusagen das Gehirn der Galaxie an der Spitze des Bündels ist. Es verbindet gewissermaßen viele der Themen und wichtigen Ideen, die für diese anderen Ideologien von zentraler Bedeutung sind.
Der Transhumanismus in seiner modernen Form entstand in den späten 1980er und 1990er Jahren. Das zentrale Ziel des Transhumanismus ist die Entwicklung fortschrittlicher Technologien, die es uns ermöglichen würden, uns selbst radikal zu verändern oder, wie man sagen würde, radikal zu verbessern, um letztendlich eine posthumane Spezies zu werden. Wenn wir also posthuman werden, könnten wir am Ende ewig leben. Wir könnten vielleicht alles Leiden abschaffen, unsere kognitiven Systeme radikal verbessern, unsere kognitiven Systeme so erweitern, dass wir selbst superintelligent werden, und letztendlich diese Art von utopischer Welt der Unsterblichkeit und des endlosen Vergnügens einleiten.
Einige Transhumanisten bezeichnen dies sogar als Paradise Engineering. Tatsächlich sind die Parallelen zwischen Transhumanismus und traditioneller Religion wirklich auffällig. Das ist wirklich kein Zufall. Wenn man sich die Personen ansieht, die ursprünglich die transhumanistische Ideologie entwickelt haben, haben sie deutlich gemacht, dass diese ein Ersatz für die traditionelle Religion sein soll. Es ist ein weltlicher Ersatz.
Und so war AGI schon immer von zentraler Bedeutung für diese Vision. Sobald wir AGI erschaffen haben, wenn es kontrollierbar ist, sich also in einer Weise verhält, die mit unseren Absichten übereinstimmt, dann könnten wir es anweisen, alle Probleme der Welt zu lösen. Wir könnten ihr einfach die Aufgabe übertragen, das sogenannte Problem des Alterns zu heilen. Vielleicht dauert es eine Minute, darüber nachzudenken. Da es superintelligent ist, findet es nach dieser Minute eine Lösung. Das Gleiche gilt für das Problem der Knappheit.
Es wäre möglicherweise in der Lage, diese neue Welt des radikalen Überflusses sofort einzuführen. AGI ist also sozusagen der direkteste Weg von unserem heutigen Standort zu dieser techno-utopischen Welt in der Zukunft, die wir möglicherweise erschaffen könnten. Sam Altman selbst, der CEO von OpenAI, hat gesagt, dass eine Kolonisierung des Weltraums ohne AGI wahrscheinlich unmöglich sei. Vielleicht könnten wir es zum Mars schaffen, aber zum nächsten Sonnensystem zu gelangen, das viel, viel, viel weiter als der Mars liegt, wird wirklich schwierig sein.
Dafür brauchen wir wahrscheinlich AGI. Von Anfang an, als das Bündel eigentlich nur aus Transhumanismus bestand, war AGI sehr wichtig. Es war bereits sehr zentral für diese Weltanschauung. Im Laufe der Zeit nahm der Transhumanismus dann verschiedene Formen an. Es gab den Extropianismus, es war die erste organisierte transhumanistische Bewegung. Dann gab es den Singularitarismus, der die sogenannte technologische Singularität betonte. Es ist dieser zukünftige Moment, in dem sich das Tempo der wissenschaftlichen und technologischen Entwicklung so stark beschleunigt, dass wir die Geschwindigkeit neuer Innovationen einfach nicht mehr begreifen können. Vielleicht könnte dies durch die Gründung von AGI ausgelöst werden. Da AGI per Definition mindestens so intelligent ist wie Menschen und die Aufgabe, immer leistungsfähigere KI-Systeme zu entwerfen, eine intellektuelle Aufgabe ist, könnte dieses System, das genau unser Maß an „Intelligenz“ hat, diese Aufgabe übernehmen immer bessere Maschinen zu entwickeln.
Man würde das bekommen, was man rekursive Selbstverbesserung nennen würde, eine positive Rückkopplungsschleife, bei der das KI-System umso besser in der Lage ist, noch leistungsfähigere KI-Systeme zu schaffen, je leistungsfähiger es wird, und so weiter und so fort. Das ist eine andere Vorstellung von der Singularität. Für die Singularitätsversion des Transhumanismus steht AGI also genau richtig, im Mittelpunkt. Dann gibt es den Kosmismus, eine weitere Variante des Transhumanismus, der einfach noch umfassender und noch großartiger, man könnte sogar sagen, noch grandioser ist als der Transhumanismus. Weil es darum geht, sich in den Weltraum auszubreiten, Galaxien umzugestalten und sich auf Dinge einzulassen, die sie Raumzeittechnik nennen. Die Erschaffung wissenschaftlicher Magie ist ein weiterer Begriff, den sie verwenden. Diese besondere Sicht auf die Zukunft ist für den Langfristismus wirklich zentral geworden.
Um schnell zu den anderen Buchstaben des Akronyms zu kommen: Der Rationalismus ist im Grunde ein Ableger der transhumanistischen Bewegung. Das basiert auf der Idee, dass wir, okay, diese techno-utopische Zukunft auf der Welt erschaffen werden, dafür viele „intelligente Leute, die sehr kluge Dinge tun“ erfordern werden. Machen wir also einen Schritt zurück und versuchen wir herauszufinden, wie wir unsere Intelligenz am besten optimieren, also maximal rational werden können. Das ist der Kern des Rationalismus. Dann ist EA (effektiver Altruismus) das, was ich zuvor erwähnt habe, der tatsächlich stark vom Rationalismus beeinflusst wurde. Während sich Rationalisten auf die Optimierung unserer Rationalität konzentrieren, konzentrieren sich effektive Altruisten auf die Optimierung unserer Moral.
Nochmals: Wenn Sie ein EA wären, der versucht, Ihre Moral zu optimieren, indem er die Menge an Gutem, die Sie in der Welt tun, erhöht, könnte die Zukunft riesig sein, sobald Sie das erkennen. Wir könnten den Weltraum kolonisieren und diese riesigen Computersimulationen erstellen, in denen Billionen und Abermillionen digitaler Menschen angeblich ein glückliches Leben führen, dann wäre es nur rational, sich auf die sehr ferne Zukunft statt auf die Gegenwart zu konzentrieren. Das ist das TESCREAL-Paket in Kürze.
Auch hier ist der Transhumanismus das Rückgrat. Langfristigkeit ist das galaktische Gehirn, das an der Spitze des Bündels sitzt, und es ist dieses Bündel von Ideologien, das im Silicon Valley, der Technologiewelt im Allgemeinen, enormen Einfluss erlangt hat. Elon Musk nennt Langfristigkeit „eine gute Übereinstimmung mit meiner Philosophie.“ Sam Altman ist ein Transhumanist, dessen Zukunftsvision sehr eng mit Kosmismus und Langfristigkeit verknüpft ist. Laut einem Profil von Sam Altman in der New York Times ist er auch ein Produkt der effektiven altruistischen und rationalistischen Gemeinschaft.
Diese Ideologie ist also überall. Es infiltriert sogar große internationale Regierungsgremien wie die Vereinten Nationen. Erst letztes Jahr gab es einen UN-Dispatch-Artikel, in dem darauf hingewiesen wurde, dass außenpolitische Kreise im Allgemeinen und die Vereinten Nationen im Besonderen zunehmend die Ideologie des Langfristismus übernehmen. Wenn Sie sich für Langfristigkeit einsetzen, übernehmen Sie in gewisser Weise auch die Kernziele vieler anderer TESCREAL-Ideologien.
Es ist wirklich sehr, sehr wichtig, dass die Menschen verstehen, was dieses Bündel von Ideologien ist, weil es so enormen Einfluss erlangt hat und unsere Welt jetzt prägt und sie auch in absehbarer Zukunft prägen wird.
KH : Etwas, das ich unbedingt mit Émile besprechen wollte, war, wie sie sich für Langfristigkeit und das größere Bündel der TESCREAL-Ideologien interessierten. Als ich Émiles Arbeit verfolgte, erfuhr ich, dass sie einst transhumanistische Ideen vertraten. Ich wollte verstehen, wie und warum sie in diese Ideologie hineingezogen wurden, denn wenn wir diesen Ideen in der Welt entgegentreten wollen, müssen wir verstehen, wie und warum sie Menschen ansprechen, die keine Tech-Brüder sind, die versuchen, die Welt zu übernehmen Welt.
ET:Mein Hintergrund mit diesem Bündel von Ideologien ist, dass ich den Transhumanismus, glaube ich, um 2005 entdeckt habe, als Ergebnis von Ray Kurzweils 2005 erschienenem Buch mit dem Titel „The Singularity is Near“.
Und um ehrlich zu sein, meine erste Reaktion auf den Transhumanismus war Entsetzen, teilweise weil dieselben Personen, die die Entwicklung dieser fortschrittlichen Technologien wie synthetische Biologie und molekulare Nanotechnologie, fortgeschrittene künstliche Superintelligenz usw. vorangetrieben haben, dies auch anerkannt haben Technologien würden beispiellose Bedrohungen für das Überleben der Menschheit mit sich bringen.
Nach Ansicht von TESCREAL bedeutet das Versäumnis, diese Technologien zu entwickeln, dass wir nie zur Utopie gelangen. Wir haben keine andere Wahl, als sie weiterzuentwickeln. Es gibt nur einen Weg vorwärts, und zwar durch die Entwicklung dieser Technologien, aber sie werden für jeden Menschen auf der Erde außergewöhnliche Gefahren mit sich bringen. Deshalb müssen wir dieses Fachgebiet schaffen, das sich „Studien zu existenziellen Risiken“ nennt, um diese Risiken zu untersuchen und herauszufinden, wie wir sie neutralisieren können. Auf diese Weise können wir unseren technologischen Kuchen haben und ihn auch essen.
Daher war mein erster Gedanke, dass es sicherer wäre, diese Technologien gar nicht erst zu entwickeln. Ray Kurzweil selbst sagt, dass wir wahrscheinlich eine Chance von mehr als 50 Prozent haben, das 21. Jahrhundert zu überleben. Die Chancen stehen schlecht. Das ist alarmierend. Er ist ein Techno-Optimist, weithin bekannt als Techno-Optimist. Er sagt: „Okay, wir haben wahrscheinlich eine Chance von mehr als 50 Prozent, dass nicht alle sterben.“ Ich dachte, es wäre einfach besser, diese nie zu entwickeln. Tatsächlich war dies eine Ansicht, die im Jahr 2000 von einem Mann namens Bill Joy in einem berühmten, im Jahr 2000 im Wired Magazine veröffentlichten Artikel mit dem Titel „Warum die Zukunft uns nicht braucht“ vertreten und verteidigt wurde.
Bill Joy war Mitbegründer von Sun Microsystems. Er ist kein Idiot, er ist kein Technologiegegner, aber er reagierte im Grunde genauso wie ich: Diese Technologien sind einfach viel zu gefährlich. Transhumanisten und die frühen TESCREAListen sagten: „Nein, nein, nein, Stillstand ist keine Option.“ Wir müssen sie entwickeln, weil sie unser Vehikel zur Technologie-Utopie in ferner Zukunft oder vielleicht in sehr naher Zukunft sind.“
Und so gelangte ich mit der Zeit zu der Überzeugung, dass das Technologieunternehmen wahrscheinlich nicht aufzuhalten ist. In diesem Zug, an dem wir alle sitzen, gibt es wahrscheinlich keine Pausen. Folglich ist es das Beste, sich ihnen anzuschließen und zu versuchen, alles zu tun, um den Verlauf der zivilisatorischen Entwicklung in die Zukunft zu verändern, und zwar auf eine Weise, die so gut wie möglich ist. So landete ich in der transhumanistischen Bewegung.
Und ich würde sagen, dass ich mich im Laufe der Zeit, ungefähr sechs Jahre lang, nicht nur ungern dieser Bewegung angeschlossen habe, sondern mich sogar für sie begeistert habe. Ich denke, das liegt zum Teil daran, dass ich in einer wirklich religiösen Gemeinschaft aufgewachsen bin. Es wurde viel über die Zukunft der Menschheit gesprochen, insbesondere über Endzeitereignisse wie die Entrückung und den Aufstieg des Antichristen sowie über diese sieben Jahre andauernde Periode absoluter Schrecken, die Trübsal genannt wird und in der der Antichrist regiert .
Dann schließlich steigt Jesus herab. Das ist das zweite Kommen. Da ist die Schlacht von Armageddon, und alles ist einfach nur düster und trostlos. Aber sobald sich die Wolken lichteten, gab es für immer das Paradies mit Gott. Deshalb erwähne ich das, weil ich begann, meinen Glauben zu verlieren, als ich wirklich etwa 19 oder 20 war. Was zurückblieb, war ein religiös geprägtes Loch, und der Transhumanismus passte sehr gut dazu. Ich habe bereits erwähnt, dass die Personen, die die Idee des Transhumanismus überhaupt entwickelt haben, alle ausdrücklich betont haben, dass es sich dabei um einen säkularen Ersatz für die traditionelle Religion handelt.
Beispielsweise wurde diese Idee des Transhumanismus zum ersten Mal in einem Buch von Julian Huxley aus dem Jahr 1927 entwickelt, einem sehr bekannten Eugeniker des 20. Jahrhunderts. Das Buch trug den bezeichnenden Titel „Religion ohne Offenbarung“. Anstatt uns also auf übernatürliche Kräfte zu verlassen, um das ewige Paradies, die Unsterblichkeit, den radikalen Überfluss usw. herbeizuführen, sollten wir versuchen, herauszufinden, wie wir dies selbst bewerkstelligen können. Und durch den Einsatz von Technologie, durch den Einsatz der Werkzeuge der Wissenschaft und Eugenik und durch immer ausgefeiltere Innovationen können wir selbst Mittel entwickeln, um den Himmel auf Erden zu schaffen, und vielleicht sogar den Himmel im Himmel, wenn wir uns über die Erde hinaus ausbreiten, was wir tun sollten. Der Transhumanismus passte also absichtlich zu dieser Lücke, die zurückblieb, als ich meinen Glauben an das Christentum verlor.
Und je mehr ich mich in der transhumanistischen Gemeinschaft befand, desto überzeugter war ich davon, dass es vielleicht tatsächlich möglich ist, diese Technologien selbst zu entwickeln und eine Utopie herbeizuführen, radikale Technologien zur Lebensverlängerung zu nutzen, um uns ein unbegrenzt langes Leben zu ermöglichen Diese Technologien wie Gehirn-Computer-Schnittstellen verbinden unser Gehirn mit dem Internet und machen uns dadurch viel intelligenter als wir derzeit sind, und so weiter. Es scheint einfach so, als wäre dies vielleicht tatsächlich technologisch machbar.
Das hat mich dazu gebracht, mich auf die Untersuchung existenzieller Risiken zu konzentrieren. Auch hier ist ein existentielles Risiko jedes Ereignis, das uns daran hindern würde, diese techno-utopische Welt in Zukunft zu erschaffen. Wenn wir also diese Bedrohungen abmildern, erhöhen wir gleichzeitig die Wahrscheinlichkeit, dass wir in dieser utopischen Welt leben werden. Was meine Meinung zu all dem wirklich geändert hat, waren zwei Dinge. Das eine ist sehr peinlich, und zwar, dass ich tatsächlich angefangen habe, Gelehrte zu lesen, die keine weißen Männer sind. Durch das Eintauchen in diese nicht-weiße Männerliteratur habe ich im Laufe mehrerer Jahre eine völlig andere Perspektive darauf gewonnen, wie die Zukunft aussehen könnte.
Das war für mich eine Art Erleuchtung, denn tatsächlich ist die Vision der Utopie, die das Herzstück des TESCREAL-Pakets bildet, zutiefst dürftig. Ich denke, und ich glaube jetzt, dass seine Verwirklichung für den Großteil der Menschheit katastrophal wäre. Wenn Sie in der TESCREAL-Literatur nachsehen, finden Sie praktisch keinen Hinweis auf Vorstellungen darüber, wie die Zukunft aus nicht-westlichen Perspektiven aussehen sollte, wie z. B. indigene, muslimische, afrofuturistische, feministische, Behindertenrechte, Queerness und so weiter , diese Perspektiven.
Es gibt einfach keinen Hinweis darauf, wie die Zukunft aus diesen alternativen Blickwinkeln aussehen könnte. Infolgedessen erhält man am Ende diese sehr homogene, wie ich schon sagte, einfach zutiefst dürftige Sicht auf die Zukunft. Wir müssen nur in den Weltraum fliegen und diese riesigen Computersimulationen erstellen, in denen es nur Billionen und Abermillionen digitaler Menschen gibt, die aus irgendeinem Grund alle ein glückliches Leben führen, produktiv sind und die wirtschaftliche Produktivität maximieren.
Dabei unterwerfen wir die Natur. Wir plündern den Kosmos wegen all seiner Ressourcen. Dies ist es, was Langfrististen unsere kosmische Ausstattung mit Negentropie nennen, die einfach negative Entropie ist. Es ist einfach Energie, die wir nutzen können, um Wertestrukturen wie Menschen zu schaffen. Das ist im wahrsten Sinne des Wortes die Art und Weise, wie Langzeitforscher sich auf zukünftige Menschen beziehen, lediglich auf Wertstrukturen. Und so dachte ich, okay, es ist wirklich arm. Dann wurde diese utopische Vision für mich immer mehr zum Scheitern.
Viele Menschen sind sich darüber einig, wie eine Dystopie aussehen würde, aber nur wenige Menschen sind sich darüber einig, was eine Utopie sein sollte. Und ich denke wirklich, wenn die Vision der Utopie, die das Herzstück des TESCREAL-Pakets bildet, der Mehrheit der Menschheit in allen Einzelheiten dargelegt würde, würden sie sagen: „Das ist keine Zukunft, die ich will.“ Darüber hinaus wurde ich jedoch auch davon überzeugt, dass Langfristigkeit und TESCREALismus im Allgemeinen äußerst gefährlich sein könnten. Und das liegt daran, dass ich begann, die Geschichte utopischer Bewegungen zu studieren, die gewalttätig wurden.
Und mir ist aufgefallen, dass vielen dieser Bewegungen zwei Komponenten zugrunde liegen: eine utopische Zukunftsvision und auch eine weitgehend utilitaristische Art moralischen Denkens. Das ist also eine Art Argumentation, nach der der Zweck die Mittel heiligt oder zumindest der Zweck die Mittel rechtfertigen kann. Und wenn die Ziele eine buchstäbliche Utopie sind, was steht dann außer Frage, um sicherzustellen, dass wir diese Utopie erreichen? In der Vergangenheit haben diese beiden Komponenten, wenn man sie zusammenschlägt, zu allen möglichen Gewalttaten, sogar zu Völkermorden, geführt.
Ich meine, im Zweiten Weltkrieg versprach Hitler dem deutschen Volk ein Tausendjähriges Reich. Er orientierte sich stark an der christlichen Tradition der Utopie. Dieses tausendjährige Reich ist eine Zeit, in der Deutschland die Oberherrschaft haben wird und alles für das arische Volk wunderbar sein wird. Dies rechtfertigte zum Teil, zumindest für echte Gläubige dieser besonderen Zukunftsvision, extreme Handlungen, sogar völkermörderische Handlungen. Im Zentrum der Langfristigkeit stehen genau diese beiden Komponenten.
Mir wurde immer klarer, dass Langfristigkeit an sich äußerst gefährlich sein könnte. Wenn es da draußen wahre Gläubige gibt, die wirklich erwarten, dass es diese utopische Zukunft im Himmel gibt, voller astronomischer Werte, 10 zu 58 glücklichen digitalen Menschen, dann ist es nicht schwer, sie sich in einer Situation vorzustellen, in der sie dies rechtfertigen Sie verwenden extreme Gewalt, vielleicht sogar Gewalt, vielleicht sogar etwas Völkermord, um diese Ziele zu erreichen.
Als ich zum ersten Mal über dieses Problem schrieb, war es 2021, veröffentlicht in Eon, und das Problem war lediglich hypothetischer Natur. Ich behaupte nicht, dass es echte Langfrististen gibt, die behaupten, Gewalt usw. sei tatsächlich gerechtfertigt, sondern vielmehr, dass diese Ideologie selbst gefährlich ist. Und wenn Sie zwei Jahre in die Zukunft bis in die Gegenwart vorspulen, sind diese hypothetischen Bedenken, die ich geäußert habe, nun wirklich ganz konkret.
Eliezer Yudkowsky zum Beispiel, der Begründer des Rationalismus, ehemaliger extropischer transhumanistischer Singularitarier, der auch unter effektiven Altruisten und Langzeitisten großen Einfluss hat, glaubt, dass die Schaffung künstlicher allgemeiner Intelligenz in naher Zukunft jeden töten wird. Dadurch wird diese techno-utopische Zukunft für immer ausgelöscht. Er glaubt auch, dass ein umfassender thermonuklearer Krieg nicht alle Menschen auf dem Planeten töten würde.
Tatsächlich unterstützt die beste Wissenschaft heute dies. Ein umfassender thermonuklearer Krieg würde wahrscheinlich nicht alle töten. Im Jahr 2020 wurde ein Papier veröffentlicht, in dem festgestellt wurde, dass ein Austausch zwischen Russland und den USA etwa 5 Milliarden Menschen töten würde. Das ist einfach eine enorme Katastrophe, aber sie hinterlässt etwa beruhigende 3 Milliarden Menschen, die die Zivilisation weiterführen und letztendlich diese posthumane Zukunft entwickeln können, indem sie den Weltraum kolonisieren, die Natur unterwerfen, den Kosmos ausplündern und so weiter.
Wenn Yudkowsky diese beiden Möglichkeiten betrachtet, argumentiert er, dass wir alles tun sollten, um zu verhindern, dass AGI in naher Zukunft entwickelt wird, weil wir dafür einfach noch nicht bereit sind. Wir sollten sogar einen totalen thermonuklearen Krieg riskieren, denn auch hier wird ein thermonuklearer Krieg wahrscheinlich nicht alle töten, wohingegen AGI in absehbarer Zukunft dies tun wird.
Als er auf Twitter gefragt wurde: „Wie viele Menschen dürfen in naher Zukunft sterben, um AGI zu verhindern“, antwortete er: „Solange es genug Menschen gibt, sind es vielleicht nur ein paar Tausend, vielleicht sind es 10.000 oder so.“ Solange es genug Menschen gibt, um den nuklearen Holocaust zu überleben und dann die Zivilisation wieder aufzubauen, können wir es vielleicht eines Tages noch zu den Sternen schaffen.“
Das war seine Antwort. Es ist genau diese Art von Argumentation, die ich vor etwa zwei Jahren geschrien habe. Es ist wirklich gefährlich. Hier sehen Sie Menschen in dieser Gemeinschaft, die dieselben extremistischen Ansichten vertreten.
KH : Ich habe letztes Jahr angefangen, von Langfristigkeit zu hören, ungefähr zu der Zeit, als Elon Musk sein Angebot zur Übernahme von Twitter startete. Einige von Ihnen erinnern sich vielleicht an Jack Dorsey, den ehemaligen CEO von Twitter, der die Übernahme der Plattform durch Musk mit den Worten rechtfertigte: „Elon ist die einzigartige Lösung, der ich vertraue.“ Ich vertraue seiner Mission, das Licht des Bewusstseins zu verbreiten.“ Dieser Teil über die Erweiterung des „Lichts des Bewusstseins“ hat mein Interesse geweckt. Ich ging davon aus, dass Dorsey sich auf Musks Weltraumfetisch bezog, konnte mir aber nicht vorstellen, was das damit zu tun hatte, dass ein Mann mit einer schrecklichen Politik und einer Geschichte von Bullshit im großen Stil eines der wichtigsten sozialen Medien übernehmen konnte Plattformen der Welt. Wir sprechen über einen Mann, der kürzlich getwittert hat, dass er mit Mark Zuckerberg einen „buchstäblichen Schwanzvermessungswettbewerb“ veranstalten möchte. Daher ist jede Investition in seine größere Vision für mich einfach verwirrend.
Nun, ein investigativer Journalist namens Dave Troy schlüsselte die Dinge in einem Blogbeitrag auf Medium auf, in dem er erklärte, dass sowohl Dorsey als auch Musk langfristige Ideen vertreten und dass Musks Übernahme von Twitter nicht so sehr ein geschäftliches Unterfangen, sondern ein ideologisches Manöver war . Laut Troy wollte Musk im Interesse seiner größeren politischen Agenda sogenannte „aufgeweckte“ Menschen und Ideen entmachten, von denen er behauptet, dass sie „die Zivilisation zerstören“.
Warum betrachtet Musk Menschen und Bewegungen, die das Wohlergehen marginalisierter Menschen oder der Umwelt im Hier und Jetzt betonen, als Bedrohung für die Zivilisation? Die langfristige Philosophie schreibt vor, dass die einzigen Bedrohungen, die von Bedeutung sind, existentielle Bedrohungen sind, die die Verwirklichung der utopischen, interplanetaren Zukunftsvision der Langzeitisten beeinträchtigen könnten. Die einzigen Ziele, die zählen, sind die Weiterentwicklung der KI und der neue Wettlauf ins All. Denn diese beiden Bestrebungen werden es uns angeblich ermöglichen, die Zahl glücklicher, zukünftiger Menschen, einschließlich einer großen Zahl digitaler Menschen, so weit zu maximieren, dass unsere Sorge um diese riesigen zukünftigen Gemeinschaften unsere Sorge um Menschen, die leiden oder leiden, überwiegen sollte heute ungerecht behandelt. Wie Émile erklärt, ist es ein Zahlenspiel.
UND : Jeder zählt für einen, aber von den 58 digitalen Menschen in der Zukunft könnten es 10 sein, während wir derzeit nur 8 Milliarden sind. Aufgrund der Vielzahl potenzieller zukünftiger Menschen verdienen sie unsere moralische Aufmerksamkeit mehr als heutige Menschen. Das ist wirklich die Schlüsselidee.
Und der Grund, warum viele TESCREAListen, insbesondere Longtermisten, davon besessen sind, dass unsere Zukunft digital sein wird, liegt darin, dass man pro Raumeinheit mehr digitale Menschen unterbringen kann als biologische Menschen. Das ist ein Grund. Wenn Sie den Gesamtwert des Universums maximieren möchten, müssen Sie die gesamte menschliche Bevölkerung vergrößern. Je mehr glückliche Menschen es gibt, desto mehr Wert wird es insgesamt im gesamten Universum geben.
Sie haben eine moralische Verpflichtung, die menschliche Bevölkerung zu vergrößern. Wenn es so ist, dass Sie in Zukunft mehr digitale Menschen als biologische Menschen erschaffen können, dann sollten Sie diese digitalen Menschen erschaffen. Das ist einer der Gründe, warum sie von dieser besonderen Ansicht besessen sind. Wenn wir den Weltraum überhaupt kolonisieren wollen, müssen wir mit ziemlicher Sicherheit digital werden.
Wie ich bereits erwähnt habe, ist die Ausbreitung auf den Mars möglicherweise möglich, wenn wir biologisch sind, aber das Erreichen des nächsten Sonnensystems, geschweige denn der nächsten Galaxie, der Andromedagalaxie, wird enorm viel Zeit in Anspruch nehmen, und das Die Bedingungen im Weltraum sind äußerst lebensfeindlich. Biologisches Gewebe ist für solche Reisen zu anderen Sonnensystemen oder anderen Galaxien, die mehrere Millionen Jahre dauern, einfach nicht besonders geeignet. Wir müssen wirklich digital werden. Diese Vorstellung, dass die Zukunft digital ist, ist meiner Meinung nach wirklich zentral für die langfristige und allgemeiner für die TESCREAListische Weltanschauung.
Vielleicht ist es einfach erwähnenswert, dass Langfristigkeit wirklich gut klingt. Das Wort selbst hat etwas sehr Erfrischendes, denn in unserer Gesellschaft herrscht eine große Kurzfristigkeit. Tatsächlich ist es in unseren Institutionen verankert. Es gibt vierteljährliche Berichte, die davon abhalten, sehr langfristig zu denken. Unsere Wahlzyklen dauern vier oder sechs Jahre, und daher werden sich Politiker nicht dafür einsetzen, eine Politik zu fördern, die das Wohlergehen von Menschen Hunderte, Tausende oder sogar noch mehr Jahre in der Zukunft berücksichtigt.
Kurzfristigkeit ist also allgegenwärtig. Myopie ist die Standardperspektive auf die Zukunft. Tatsächlich gab es vor etwa einem Jahrzehnt eine Studie, in der ein Gelehrter namens Bruce Kahn Menschen zu ihrer Fähigkeit, die Zukunft vorherzusehen, befragte. Er stellte fest, dass unsere Vision von dem, was kommen wird, in der Regel nicht länger als etwa zehn Jahre reicht. Das ist so etwas wie der Horizont, den die meisten Menschen für verständlich halten. Darüber hinaus ist es einfach zu abstrakt, um klar darüber nachzudenken.
Daher scheint jede Neuausrichtung des Denkens über die längerfristige Zukunft der Menschheit zumindest auf den ersten Blick sehr attraktiv zu sein. Schließlich werden die katastrophalen Auswirkungen des Klimawandels noch etwa 10.000 Jahre anhalten. Das ist eine viel längere Zeit, als es die Zivilisation bisher gibt. Die Zivilisation ist vielleicht 6.000 Jahre alt oder so. 10.000 Jahre lang wird das, was wir jetzt tun und was wir seit der industriellen Revolution getan haben, die Lebensqualität unseres Planeten für viele Jahrtausende prägen.
Sicherlich wünscht man sich eine Art langfristige, man könnte sagen: langfristige Perspektive auf diese Dinge. Die langfristige Ideologie geht weit über das langfristige Denken hinaus. Es gibt ideologische Bekenntnisse zur Langfristigkeit, die meiner Meinung nach die meisten Menschen, wahrscheinlich die große Mehrheit der Menschen, denen langfristiges Denken am Herzen liegt, als sehr abstoßend empfinden würden. Eines ist das, was ich gerade angedeutet hatte, nämlich dass es einen moralischen Imperativ gibt, die menschliche Bevölkerung zu vergrößern. Solange die Menschen im Durchschnitt glücklich sind, werden sie Wert in das Universum bringen.
Selbst bei einer moderaten Interpretation des Langfristdenkens haben wir eine moralische Verpflichtung, den Wert im Universum als Ganzes zu steigern. Das heißt, größer ist besser. Um William MacAskill in seinem letztjährigen Buch „What We Owe The Future“ zu zitieren: „Größer ist besser.“ Er schreibt sogar, dass es aus diesem Grund ein moralisches Argument für die Besiedlung des Weltraums gebe. Wenn größer besser ist und die Erdoberfläche endlich ist, was sie ist, dann müssen wir uns über die Erde hinaus ausbreiten. Aus diesem Grund kommt er zu dem Schluss, dass es moralische Argumente für die Besiedlung des Weltraums gibt.
Das ist eine sehr radikale Idee. Noch einmal: Wenn man durch die Schaffung digitaler Menschen eine größere Bevölkerung schaffen kann, indem man das biologische Substrat durch eine Art digitale Hardware ersetzt, dann sollten wir das tun. Letztendlich erfüllen wir so unser langfristiges Potenzial im Universum. In dieser Hinsicht sind diese Ideologien kontraintuitiv und ziemlich radikal.
Ein anderer, der Rationalismus, scheint ebenfalls einen gewissen Reiz zu haben, weil wir als Individuen sicherlich rationaler sein wollen. Wenn man sich das in der Rationalistengemeinschaft am weitesten verbreitete Verständnis von Rationalität ansieht, führt es tatsächlich zu allerlei sehr seltsamen Schlussfolgerungen. Hier ist ein Beispiel: Eliezer Yudkowsky, der mehr oder weniger die rationalistische Gemeinschaft gründete und ein transhumanistischer Singularitarier ist, der an der extropischen Bewegung teilnahm.
Seine Ansichten sind heutzutage sehr eng mit effektivem Altruismus und Langfristigkeit verknüpft. Er ist in fast allen dieser Ideologien innerhalb des TESCREAL-Bündels vertreten. Er hat vorgeschlagen, dass es bei der Moral viel mehr um das Rechnen mit Zahlen gehen sollte, als viele von uns natürlich vermuten würden. Beispielsweise veröffentlichte er einen Blogbeitrag auf einer Website namens LessWrong, die er 2009 gründete. Das ist sozusagen das Online-Epizentrum der Rationalisten-Community.
In diesem Blogbeitrag stellte er die Frage: Was wäre schlimmer: Eine Person würde 50 Jahre lang gnadenlos gefoltert? Nur endloses, endloses Leid für diese eine Person oder für eine extrem große Anzahl von Personen, die das fast unmerkliche Unbehagen haben, eine Wimper im Auge zu haben? Was davon wäre schlimmer?
Nun, wenn man sich die Zahlen ansieht und die Anzahl der Personen, die diese Wimper im Auge haben, groß genug ist, dann sollten Sie sich dafür entscheiden, die Person 50 Jahre lang foltern zu lassen, anstatt diese große Anzahl von Personen leicht zu belästigen nur ein ganz kleines Maß an Unbehagen in ihren Augen. Es ist nur ein Zahlenspiel. Und so bezeichnet er dies als die Heuristik des Schweigens und Multiplizierens.
Mit der Zeit wurde er etwas weniger dogmatisch. Er schlug vor, dass es vielleicht Situationen gibt, in denen „Halt die Klappe halten und multiplizieren“ nicht immer funktioniert. Auf diese Weise bekommen Sie einen Eindruck davon, wie extrem dieser Ansatz zur Optimierung unserer Rationalität sein kann. Einige der Schlussfolgerungen dieser Community waren wirklich ziemlich radikal und problematisch. Ein weiteres Beispiel ist, dass es in der rationalistischen Gemeinschaft eine Reihe von Personen gab, die ebenfalls große Sympathien für die Eugenik hegten.
Wenn wir also diese technisch-utopische Zukunft verwirklichen wollen, brauchen wir eine gewisse Anzahl ausreichend „intelligenter“ Individuen in der Gesellschaft. Folglich wird die durchschnittliche Intelligenz der Menschheit sinken, wenn die Zahl der Menschen mit geringerer „Intelligenz“ ihre intellektuell leistungsfähigeren Artgenossen übersteigt. Das ist es, was sie argumentieren. Dies ist ein Szenario namens Dysgenie. Dieser Begriff geht auf die Eugeniker des frühen 20. Jahrhunderts zurück, von denen viele von bestimmten rassistischen, behindertenfeindlichen, klassistischen, sexistischen und anderweitig elitären Ansichten motiviert oder inspiriert waren.
Diese Ansichten sind in der rationalistischen Gemeinschaft immer noch allgegenwärtig. Ich denke sogar noch mehr, dass diese Vorstellung von Eugenik und die Angst vor der Möglichkeit dysgener Belastungen immer noch weit verbreitet sind. Ein weiteres Beispiel wäre Nick Bostroms 2002 veröffentlichter Aufsatz, in dem er den Begriff des existenziellen Risikos einführt. Existenzrisiko ist jedes Ereignis, das uns daran hindern würde, diese techno-utopische posthumane Zukunft unter den Sternen voller astronomischer Werte zu verwirklichen.
Er listet eine Reihe existenzieller Risikoszenarien auf. Einige davon sind wirklich offensichtlich, wie zum Beispiel ein thermonuklearer Krieg. Wenn die USA, Russland, Indien, Pakistan und alle anderen Nuklearnationen daran beteiligt wären, im Rahmen eines thermonuklearen Austauschs, dann könnte das möglicherweise zur Ausrottung der Menschheit führen. Es gibt aber auch verschiedene überlebensfähige Szenarien, die die Verwirklichung dieser techutopischen Welt in der Zukunft verhindern könnten. Eine davon identifiziert er ausdrücklich als dysgenen Druck.
Wiederum, wo weniger so genannte intelligente Menschen ihre intelligenteren Artgenossen übertreffen. Folglich wird die Menschheit nicht mehr intelligent genug, um die Technologien zu entwickeln, die wir zur Utopie benötigen. Vielleicht gehört dazu auch künstliche allgemeine Intelligenz. Und dadurch wird diese Utopie nie verwirklicht, und das wäre eine existenzielle Katastrophe. Dies ist nur ein Eindruck davon, wie radikal und extrem einige Ansichten in dieser Gemeinschaft sind.
KH : Die Idee des menschlichen Wertes und die Maximierung dieses Wertes ist ein herausragendes Konzept in der langfristigen Ideologie. In einem Artikel aus dem Jahr 2003 mit dem Titel „Astronomical Waste“ – einem Dokument, das für die Langfristigkeit von grundlegender Bedeutung ist – vertrat Nick Bostrom die Idee, dass jede Verzögerung bei der Kolonisierung des Weltraums grundsätzlich schädlich sei, da solche Verzögerungen die Zahl potenzieller zukünftiger, glücklicher Menschen in ferner Zukunft verringern würden. Bostrom schrieb, dass „das Potenzial für einhundert Billionen potenzielle Menschen mit jeder Sekunde, die die Kolonisierung unseres Superhaufens aufgeschoben wird, verloren geht.“ Letztes Jahr hat Elon Musk einen Beitrag retweetet, in dem er „Astronomical Waste“ als „wahrscheinlich den wichtigsten Aufsatz aller Zeiten“ bezeichnete. Dieses Verständnis des menschlichen Wertes als ein Zahlenspiel, dessen Ausweitung von der Kolonisierung des Weltraums abhängt, ermöglicht es Langzeitbefürwortern, viele soziale Bedenken abzutun.
Ich denke, viele von uns würden der Vorstellung widersprechen, dass, weil etwas einen Wert hat, unsere Priorität in der Massenproduktion und Massenverbreitung dieser Sache liegen sollte, aber wie definiert man überhaupt menschlichen Wert? Dies war eines der Themen, die ich am meisten verwirrend fand, als ich mich mit langfristigen Ideen beschäftigte.
UND : Auf welchen Wert beziehen sie sich, wenn sie von der Maximierung des Werts sprechen? Es kommt darauf an, wen Sie fragen. Manche würden sagen, dass das, was wir als Spezies jetzt tun müssen, in erster Linie darin besteht, das Problem der Minderung existenzieller Risiken anzugehen. Sobald wir das tun, geraten wir in einen Zustand existenzieller Sicherheit. Das gibt uns etwas Luft zum Atmen. Wir finden heraus, wie wir die Gefahr eines thermonuklearen Krieges beseitigen und Nanotechnologie oder verschiedene Arten der synthetischen Biologie so entwickeln können, dass unser weiteres Überleben nicht gefährdet wird.
Wenn wir erst einmal existentielle Sicherheit erlangt haben, dann gibt es diese Epoche, diese Periode, die man die lange Reflexion nennt. Das können Jahrhunderte oder Jahrtausende sein. Wenn wir alle zusammenkommen, alle Menschen auf der ganzen Welt, und uns nur darauf konzentrieren, einige der ewigen Probleme der Philosophie zu lösen: Was legen wir Wert? Was sollten wir wertschätzen? Was sollten wir in Zukunft maximieren? Ist es Glück?
Eine der wichtigsten Werttheorien innerhalb der Philosophie heißt Hedonismus. Dies besagt, dass das einzig wirklich Wertvolle im gesamten Universum Glück oder Vergnügen ist. Es gibt andere Theorien, die sagen: Nein, es geht tatsächlich um die Befriedigung von Wünschen, oder es gibt wieder andere Theorien, die sagen, dass es neben Glück auch um Dinge wie Wissen, Freundschaft, Wissenschaft und Kunst geht.
Wie genau wir Wert verstehen, steht etwas im Widerspruch zum langfristigen Argument, denn sie werden sagen, dass die Zukunft riesig sein könnte. Wenn wir den Weltraum kolonisieren und all diese digitalen Menschen erschaffen, könnte die Zukunft enorm sein. Das heißt, was auch immer Sie wertschätzen, es könnte in Zukunft noch viel mehr davon geben. Der eigentliche Schlüsselgedanke ist also dieser Gedanke der Wertmaximierung. Sie könnten die Frage stellen: „Was ist die angemessene Reaktion auf den inneren Wert?“ Was auch immer einen inneren Wert hat, wie kann man darauf richtig reagieren?
Die Langzeitisten würden sagen: „Maximieren Sie es.“ Wenn Sie Wert auf Strandspaziergänge legen, sind zwei Strandspaziergänge doppelt so gut wie einer. Wenn Sie Wert auf großartige Kunstwerke legen, sind 100 großartige Kunstwerke doppelt so gut wie nur 50 großartige Kunstwerke. Was auch immer Sie wertschätzen, es sollte mehr davon geben. Diese Idee, dass der Wert maximiert werden sollte, entstand historisch gesehen ungefähr zur gleichen Zeit wie der Kapitalismus.
Es ist mit einer bestimmten ethischen Theorie namens Utilitarismus verbunden. Ich glaube nicht, dass es ein Zufall ist, dass Utilitarismus und Kapitalismus gleichzeitig entstanden sind. Denn Utilitarismus ist eigentlich eine sehr quantitative Denkweise über Moral. Das Grundprinzip besteht darin, dass der Wert maximiert werden sollte. Folglich gibt es allerlei Parallelen zwischen ihm und dem Kapitalismus. Man könnte sich den Utilitarismus als eine Art Zweig der Ökonomie vorstellen. Während es bei Kapitalisten ausschließlich um die Maximierung des Endergebnisses geht, also des Profits, betrachten Utilitaristen das Endergebnis, das maximiert werden sollte, als gerechten Wert in einem allgemeineren und unpersönlicheren Sinne.
Das ist wirklich die Schlüsselidee. Es ist erwähnenswert, dass es auch andere Antworten auf die Frage gibt: „Was ist die angemessene Antwort auf den Wert?“ Man könnte sagen: „Eigentlich sollten Sie, wenn Ihnen etwas präsentiert wird, das an sich wertvoll ist, es wertschätzen oder hegen, lieben, schützen, bewahren, erhalten.“ Hier gibt es jede Menge mögliche Antworten, bei denen es nicht nur darum geht, die Gesamtzahl der Instanzen dieses Dings im Universum zu erhöhen.
Ich denke, wenn man viele Langzeittheoretiker fragt, werden sie sagen, dass wir uns wahrscheinlich eine Art pluralistische Wertauffassung zu eigen machen sollten. Wir wissen nicht wirklich, was Wert ist. Dazu gehört wahrscheinlich auch Glück. Je mehr Glücksfälle es in der Zukunft gibt, desto besser wird das Universum als Ganzes. Aber letztlich können wir das im Laufe der langen Überlegung entscheiden.
Übrigens halte ich diese Idee des langen Nachdenkens für völlig fehl am Platz. Wenn man an die Menschen auf der ganzen Welt denkt, die einfach bei allem eine Pause einlegen, herumsitzen und ein paar Jahrhunderte oder Jahrtausende lang Hand in Hand gehen, um diese immerwährenden philosophischen Probleme zu lösen und herauszufinden, was Wert ist, erscheint das einfach absolut unglaubwürdig.
Dennoch ist dies Teil des langfristigen Zukunftsplans. Der Schlüsselgedanke ist also, dass es, was auch immer wir wertschätzen, einfach mehr davon geben muss.
KH : Die Idee einer riesigen Zahl zukünftiger glücklicher Menschen, digital und nicht-digital, als Maximierung des menschlichen Wertes ist eine, die ich oft von Menschen gehört habe, deren Weltanschauungen in das TESCREAL-Paket fallen, und ich finde dieses Konzept durchaus lächerlich. Denn wenn ich Sie alle, die Sie gerade hören oder lesen, fragen würde: „Was ist Glück?“, würde ich viele völlig unterschiedliche Antworten bekommen. Ich kann nicht einmal die Frage beantworten: „Was ist Glück?“ Habe ich mich an meinem Hochzeitstag genauso gefühlt? Fühle ich mich genauso, wenn ich ein Essbares esse oder sehe, wie ein Nazi geschlagen wird? Glück ist kein konkretes Konzept, das gemessen werden kann. Wie kann es also ein bestimmendes Merkmal der langfristigen Vorstellung vom menschlichen Wert sein und wie kann es effektiv maximiert werden?
UND : Ich denke, etwas, was dem Longtermist, oder ich würde sagen, der TESCREAL-Literatur allgemeiner, völlig fehlt, ist jede Art von philosophisch seriöser Analyse des Sinns des Lebens. Was macht das Leben sinnvoll? Der Fokus liegt eigentlich nur auf der Maximierung des Werts im Universum als Ganzes, aber Sie könnten möglicherweise den Wert maximieren und gleichzeitig das Leben bedeutungslos machen. Für mich ist es einfach viel wichtiger zu verstehen, was einem Leben einen Sinn verleiht, als das Glück zu maximieren.
Außerdem denke ich, dass Sie völlig Recht haben, dass diese Art der quantitativen Vorstellung von Glück wirklich bizarr ist. Utilitaristen verwenden diesen Begriff für eine Einheit des Glücks. Es heißt „Util“ und kommt vom Wort „Utility“. Nutzen ist mehr oder weniger austauschbar mit Wert. Sie möchten den Wert maximieren, das heißt, Sie möchten den Nutzen maximieren. Folglich wird das Universum umso besser, je mehr Utilities es im Universum gibt. Was genau ein Util ist, weiß ich nicht.
Ich habe keine Ahnung, wie viele Hilfsmittel ich gestern ins Universum eingeführt habe. Ich weiß nicht, ob ich heute mehr Utils erstellt habe als vor einer Woche. Es ist alles einfach sehr seltsam und es geht darum, diesen außerordentlich komplexen und reichen Bereich, nämlich die Moral, auf eine Art quantitative, prokrusteische Art und Weise zu verstehen. Ich denke, wenn viele Menschen verstehen, dass dies die philosophischen Grundlagen eines großen Teils der TESCREAL-Weltanschauung sind, werden sie sofort zurückschrecken.
KH: Beim Konzept des Utils frage ich mich, wie viele Utils ich durch den Verzehr einer Essware einführe, aber darauf wollen wir uns nicht näher einlassen.
Wie auch immer, das TESCREAL-Bundle ist ein relativ neues Konzept. Ich persönlich finde das Akronym sehr nützlich, wenn ich diese Ideen erforsche. Doch Émile und Timnit Gebru ernteten für ihre Ideen heftige Kritik. Im Juni veröffentlichten der Doktorand Eli Sennesh und James J. Hughes, der geschäftsführende Direktor des Institute for Ethics and Emerging Technologies, einen Medium-Beitrag mit dem Titel „Conspiracy Theories, Left Futurism, and the Attack on TESCREAL“, in dem einige scharfe Kritik geübt wird Die Arbeit von Émile und Timnit Gebru, einschließlich der Idee, dass die Ideologien im Akronym TESCREAL überhaupt gebündelt werden können. Ich hatte viele Probleme mit diesem Stück, auf das wir uns heute nicht näher einlassen können, aber ich wollte Émile die Möglichkeit geben, auf einige Kritikpunkte des Stücks an ihrer Arbeit und ihren Ideen zu antworten.
UND : James Hughes und eine andere Person haben diesen Medium-Artikel veröffentlicht, in dem sie argumentierten, dass das TESCREAL-Paket im Wesentlichen eine Verschwörungstheorie sei. Ich finde ihre Argumente überhaupt nicht überzeugend. Tatsächlich kann ich mich nicht einmal daran erinnern, was genau der Kerngedanke ihrer Argumentation ist. Diese Vorstellung, dass es sich beim TESCREALismus um reines Verschwörungsdenken handelt, ist völlig unhaltbar. Es ist keine Verschwörungstheorie, wenn es zahlreiche Beweise dafür gibt.
Es gibt eine enorme Menge an Beweisen, die diese Annahme bestätigen, dass es dieses Bündel von Ideologien gibt, die tatsächlich zusammengehören. Tun sie. Sie stellen eine Art einzelne Einheit oder einen einzelnen Organismus dar, der sich von den späten 1980er Jahren bis in die Gegenwart erstreckt und dass dieses Bündel im Silicon Valley großen Einfluss hat. Eine Sache, die ich hervorheben sollte, ist, dass diese Bewegungen und diese Ideologien weitgehend die gleichen ideologischen Eigenschaften haben.
Historisch gesehen sind sie aus einander hervorgegangen. Man könnte sich das wie eine Zersiedelung in einem Vorort vorstellen. Es begann mit dem Transhumanismus. Der Extropianismus war die erste organisierte transhumanistische Bewegung. Viele Extropianer beteiligten sich dann am Singularitarismus. Der Begründer des modernen Kosmismus war selbst ein extropischer Transhumanist. Dann ist Nick Bostrom mehr oder weniger der Begründer des Langfristismus, er hatte enormen Einfluss unter Rationalisten und EAs und er war auch einer der ursprünglichen Transhumanisten, ein Teilnehmer der extropischen Bewegung.
Diese Ideologien und Bewegungen überschneiden sich und sind auf vielfältige Weise miteinander verbunden. Tatsächlich war eine der Personen, die die Kritik, den Artikel über das TESCREAL-Konzept von James Hughes, retweetete, eine Person namens Anders Sandberg. Soweit ich weiß, unterstützte er den Einwand, dass der TESCREALismus nur eine Verschwörungstheorie sei. Ich fand das ziemlich amüsant, denn Anders Sandberg ist ein Transhumanist, der an der extropischen Bewegung teilgenommen hat, der über die Singularität geschrieben hat und tatsächlich hofft, dass die Singularität zustande kommt.
Im Grunde ist er ein Singularisten. Er war eng mit dem Begründer des Kosmismus, Ben Goertzel, verbunden. Er ist Mitglied der rationalistischen Gemeinschaft, hat großen Einfluss unter den EAs, ist ein effektiver Altruist und ein Langzeitist. Er ist ein Beispiel. Er verkörpert alle diese unterschiedlichen Ideologien, vielleicht mit Ausnahme des Kosmismus, zumindest nicht explizit. Obwohl wiederum die zentrale Idee, die Vision des Kosmismus, innerhalb der Langfristigkeit sehr lebendig ist.
Es gibt also eine Person, die im Grunde das Herzstück der TESCREAL-Bewegung ist und die Behauptung retweetet, dass der TESCREALismus nur eine Verschwörungstheorie sei. Ich habe also das Gefühl, dass dies ein Zeichen dafür ist, inwieweit jemand diese Kritik an dem Begriff und Konzept, das Timnit Gebru und ich entwickelt haben, aufgreifen und diese Kritik mit einem kleinen Lachen betrachten sollte.
KH : Der Artikel argumentiert auch, dass einige dieser Ideologien progressive Flügel oder progressive Grundlagen haben und dass wir diese progressiven Anhänger, die unsere Verbündeten sein könnten, missachten oder ihnen Unrecht tun, wenn wir uns auf einige der Verallgemeinerungen einlassen, von denen sie behaupten, dass sie ihnen innewohnen Bündelung von TESCREAL. Das ist auf den ersten Blick ein schreckliches Argument. Denn es gab schon immer repressive und reaktionäre Ideen, die sich sowohl auf der linken als auch auf der rechten Seite ausgebreitet haben, auch wenn sie sich auf die Rechte konzentrierten, und das gilt auch heute noch. Transphobe Ideen sind in unserer Zeit ein Paradebeispiel, da diese Ideen hauptsächlich von der Rechten vorangetrieben werden, aber auch bei Liberalen und Menschen zu finden sind, die sich als Linke identifizieren.
UND : Es ist auch erwähnenswert, dass wir Eugenik im gesamten 20. Jahrhundert mit den Faschisten, mit Nazi-Deutschland in Verbindung bringen. Es erfreute sich sowohl bei Progressiven als auch bei Faschisten und dem gesamten politischen Spektrum großer Beliebtheit. Es gab Einzelpersonen im gesamten politischen Spektrum, die sich alle für Eugenik begeisterten. Nur weil etwas fortschrittlich ist, heißt das nicht, dass es unproblematisch ist.
Außerdem würde ich sagen, dass die wirklich fortschrittlichen Flügel der transhumanistischen Bewegung, der Extropianer, nun ja, die extropische Bewegung eine Ausnahme bilden, weil sie sehr libertär sind, aber die progressiven Flügel der transhumanistischen Bewegung sind einfach bei weitem nicht so einflussreich. Und so lässt diese Idee des TESCREAL-Pakets durchaus Raum für alle möglichen Nuancen. Ich sage nicht, dass alle Transhumanisten TESCREAListen sind. Ich sage nicht, dass alle EAs TESCREAListen sind. Es gibt viele EAs, die Langfristdenken für verrückt halten und mit Langfristdenken nichts zu tun haben wollen.
Sie wollen sich lediglich auf die Abschaffung der Massentierhaltung und die Linderung der globalen Armut konzentrieren. EA, es gibt einen wachsenden und sehr mächtigen Teil von EA, der langfristig ausgerichtet ist. Diese Idee des TESCREAL-Pakets bietet durchaus viel Raum für eine Variation innerhalb der Communities, die jedem Buchstaben im Akronym entspricht. Das war also ein weiterer Grund, warum ich fand, dass der Artikel das Ziel irgendwie verfehlt, denn meine und Gebrus Behauptung ist nicht, dass jeder Transhumanist und jeder Singularitarier ein TESCREAList ist.
Es ist nur so, dass die mächtigsten Figuren innerhalb dieser Gemeinschaften TESCREAListen sind. Ich denke, das ist wirklich der Schlüsselgedanke.
KH : Möglicherweise hören Sie das alles und denken: „Nun, ich habe keinen Einfluss auf das Silicon Valley, was zum Teufel soll ich also wegen all dem tun?“ Wenn Sie so denken, möchte ich, dass Sie innehalten und darüber nachdenken, was die meisten Menschen über Langfristigkeit als Konzept denken würden, wenn sie eine Ahnung von dem hätten, was wir heute hier besprochen haben. Diese Ideen einfach ins rechte Licht zu rücken, ist ein wichtiger Anfang. Wir müssen unsere Feinde kennen, und nicht genug Menschen wissen oder verstehen, womit wir es zu tun haben, wenn es um Langfristigkeit oder TESCREAL geht.
UND : Ich denke, es ist wirklich wichtig, dass die Menschen verstehen, was diese Ideologie ist, wie einflussreich sie ist und warum sie potenziell gefährlich sein könnte. Darüber schreibe ich, eines der Dinge, über die ich zumindest im letzten Jahr schreibe, und ich hoffe, die Öffentlichkeit darauf aufmerksam zu machen, dass es da draußen und hinter den Kulissen dieses Bündel von Ideologien gibt massiv einflussreich werden. Es infiltriert die UN und ist im Silicon Valley allgegenwärtig.
Ich denke, dass es bei all dem Gerede unter TESCREAListen über existenzielle Risiken, einschließlich Risiken, die sich aus künstlicher allgemeiner Intelligenz ergeben, meiner Meinung nach ein wirklich gutes Argument dafür gibt, dass eine der größten Bedrohungen, denen wir gegenüberstehen, das TESCREAL-Paket selbst ist. Schließlich gibt es in dieser TESCREAL-Community äußerst einflussreiche Leute, wie Eliezer Yudkowsky, der in großen Publikationen wie dem Time Magazine schreibt, dass wir einen thermonuklearen Krieg riskieren sollten, um die AGI-Apokalypse zu verhindern. Wir sollten militärische Gewalt einsetzen, um Rechenzentren anzugreifen, die von Nationen zur Schaffung einer künstlichen allgemeinen Intelligenz genutzt werden könnten. Das ist wirklich unglaublich gefährliches Zeug, und genau das habe ich vor einigen Jahren befürchtet. Und zu meinem Entsetzen befinden wir uns jetzt in einer Situation, in der meine Angst, dass extreme Gewalt am Ende als gerechtfertigt angesehen werden könnte, um eine existenzielle Katastrophe zu verhindern. Meine Sorgen haben sich bestätigt. Und ich denke, das ist eine wirklich beängstigende Sache.
KH: Émile hat auch ein bevorstehendes Buch, das im Juli erscheinen wird und auf das ich wirklich gespannt bin.
UND: Das kommende Buch heißt Human Extinction, A History of the Science and Ethics of Annihilation und zeichnet im Wesentlichen die Geschichte des Denkens über das Aussterben der Menschheit in der gesamten westlichen Tradition nach, von den alten Griechen bis zur Gegenwart.
Dann liefert es auch wirklich die erste umfassende Analyse der Ethik des menschlichen Aussterbens. Und so erscheint dies am 14. Juli. Sie können es auf Amazon oder auf der Website des Herausgebers Routledge finden. Es ist etwas teuer, aber wenn Sie es kaufen, ist es hoffentlich sein Geld wert.
KH : Ich habe aus diesem Gespräch so viel mitgenommen, und ich hoffe, dass auch unsere Leser und Zuhörer davon profitieren. Für mich ist das Fazit, dass wir langfristig gesehen eine Ideologie haben, in der Leiden, Massentod und sogar extreme Gewalttaten allesamt als akzeptabel angesehen werden können, wenn diese Handlungen das Projekt unterstützen, das Licht des Bewusstseins durch den Raum zu verbreiten Kolonisierung und die Entwicklung von AGI. Es ist wichtig zu verstehen, wie entbehrlich Sie und ich und alle, die unter der weißen Vorherrschaft, dem Imperialismus und dem Kapitalismus leiden, dieser Ideologie folgen. Und obwohl Langfristdenken für viele von uns relativ neu sein mag, ist die Wahrheit, dass seine Anhänger seit Jahren daran arbeiten, Bildungseinrichtungen, politische Organisationen und Regierungsstrukturen zu infiltrieren. Wir sprechen also von einem sozialen und politischen Projekt, das gut ist im Gange. Als Menschen, die sich dieser Arbeit widersetzen würden, haben wir großen Nachholbedarf.
Ich denke auch, dass Émiles Argument, dass der Transhumanismus einst eine religionsgroße Lücke in ihrem Leben füllte, auch ein wirklich wichtiger Gedanke für Aktivisten ist, den es zu bedenken gilt, denn viele Menschen haben in ihrer Weltanschauung eine religionsgroße Lücke . Wir durchleben unsichere, katastrophale Zeiten, und wie Mike Davis in Planet of Slums beschrieb, können Menschen in Zeiten des Zusammenbruchs anfälliger für Sekten und hyperreligiöse Bewegungen werden. Wir sind soziale Tiere und als solche sind wir immer auf der Suche nach Führung – nach jemandem, der größer, stärker und schneller ist und einen Plan hat. Manche Menschen finden diesen Trost im Bereich des Glaubens, aber viele von uns sind nicht religiös, und viele weitere schließen sich keiner wörtlichen Interpretation ihres Glaubens an und suchen daher immer noch nach wissenschaftlichen und philosophischen Antworten. Die Menschen sind in diesen Zeiten äußerst verletzlich, und wenn wir als Organisatoren und Aktivisten nicht versuchen, die religionsgroße Lücke im Leben der Menschen mit sinnvollen Beschäftigungen und Ideen zu füllen, werden destruktive und entmenschlichende Ideen diesen leeren Raum füllen. Wir müssen Menschen in Bewegungen willkommen heißen, die auf ihre existenziellen, epistemischen und relationalen Bedürfnisse eingehen, damit es weniger wahrscheinlich ist, dass sie Opfer sektiererischer Ideen und Ideologien werden.
Mir ist klar, dass das leichter gesagt als getan ist, aber wir werden ein wenig darüber sprechen, welche Art von Geschichten und Ideen uns hilfreich sein werden, um der Religiosität des neuen Weltraumrennens und des Rennens um AGI in den kommenden Episoden entgegenzuwirken. Vorerst möchte ich uns nur an die Worte von Ruth Wilson Gilmore erinnern, die mir für immer in Erinnerung bleiben: „Wo das Leben kostbar ist, ist das Leben kostbar.“ Das bedeutet, dass das Leben hier und jetzt kostbar ist, wenn wir als Menschen füreinander wertvoll sind. Das ist eine Entscheidung, die wir jeden Tag treffen, und ich betrachte sie als eine politische Verpflichtung. Wir müssen uns nicht maximieren, indem wir so viele Kinder wie möglich haben oder unendliche Horden digitaler Menschen schaffen, wie die Pronatalisten und KI-besessenen Technologiebrüder behaupten. Wir müssen einander und alle Wesen und Dinge wertschätzen, die unsere Existenz ermöglichen. Das bedeutet es, füreinander und für die Zukunft zu kämpfen. Was auch immer der menschliche Wert sein mag, seine Bewahrung wird nicht in irgendeinem Science-Fiction-Fantasieland verwirklicht, das über die ganze Galaxis verteilt ist. Der Kampf um alles, was es wert ist, bewahrt zu werden, wer und was wir sind, findet hier und jetzt statt, während wir Ungleichheit, Ausbeutung, Militarismus und jeden anderen Treiber des Klimachaos und der Entmenschlichung unserer Zeit bekämpfen. Wir sind dieser Kampf, wenn wir einander genug wertschätzen, um zu handeln.
Ich möchte Émile P. Torres dafür danken, dass er heute zu mir gekommen ist. Ich habe so viel gelernt und bin so dankbar für dieses Gespräch. Vergessen Sie nicht, sich Émiles bevorstehendes Buch „Human Extinction, A History of the Science and Ethics of Annihilation“ anzuschauen. Und seien Sie auf jeden Fall bei unseren nächsten Episoden dabei, in denen wir über künstliche Intelligenz und die Art des Geschichtenerzählens sprechen, die wir brauchen, um die vor uns liegenden ideologischen Schlachten zu führen.
Ich möchte auch unseren Zuhörern dafür danken, dass sie heute dabei waren. Und denken Sie daran: Unsere beste Verteidigung gegen Zynismus besteht darin, Gutes zu tun und sich daran zu erinnern, dass das Gute, das wir tun, zählt. Bis zum nächsten Mal sehen wir uns auf der Straße.
Notizen anzeigen
Referenziert:
Wir auch! Deshalb haben wir es uns zur Aufgabe gemacht, die Dinge aufzurütteln und Ihnen die Geschichten und Perspektiven näherzubringen, die in den Mainstream-Medien oft unerzählt bleiben. Aber eine radikal und kompromisslos unabhängige Nachrichtenseite zu sein, ist nicht einfach (oder billig), und wir sind auf die Unterstützung der Leser angewiesen, um den Erfolg am Laufen zu halten.
Wenn Ihnen gefällt, was Sie lesen, denken Sie bitte noch heute über eine steuerlich absetzbare Spende nach. Wir bitten nicht um eine Almosenzahlung, wir bitten um eine Investition: Investieren Sie in eine gemeinnützige Nachrichtenseite, die keine Angst davor hat, ein paar Ärgernisse zu machen, keine Angst davor hat, für das Richtige einzutreten, und keine Angst davor hat, es so zu sagen, wie es ist .
Kelly Hayes ist Moderatorin des Truthout-Podcasts „Movement Memos“ und Autorin bei Truthout. Kellys schriftliche Arbeiten sind auch in Teen Vogue, Bustle, Yes! zu finden. Magazine, Pacific Standard, NBC Think, ihr Blog Transformative Spaces, The Appeal, die Anthologie The Solidarity Struggle: How People of Color Succeed and Failing At Showing Up For Each Other In the Fight For Freedom und Truthouts Anthologie über Bewegungen gegen staatliche Gewalt, Who Dienen Sie, wem beschützen Sie? Kelly ist außerdem Direct-Action-Trainerin und Mitbegründerin des Direct-Action-Kollektivs Lifted Voices. Kelly wurde für ihre Organisations- und Bildungsarbeit 2014 mit dem Women to Celebrate Award und 2018 mit dem Champions of Justice Award der Chicago Freedom School geehrt. Kellys Bewegungsfotografie ist in der Ausstellung „Freedom and Resistance“ des DuSable Museum of African American History zu sehen. Um über Kellys Organisationsarbeit auf dem Laufenden zu bleiben, können Sie ihr auf Facebook und Twitter folgen.
Kelly HayesEmile P. TorresKHUNDKHET:KHUNDKHUNDKHUNDKHUNDKHUNDKHUNDKHUNDKHNotizen anzeigen