第2回:世界を動かす“AIインフラバブル” そして倫理はどこへ向かうのか
見えないところで膨らむ「AIの経済」
AIの進化を支えているのは、目に見えない巨大な構造です。それはチップ、データセンター、エネルギー、そして投資。
いま、世界の資本はAIを中心とした「新しいインフラ」に向かって流れ続けています。
しかし、そのお金の流れをたどると、ある奇妙な事実が見えてきます。私たちがAIと呼んでいる技術の多くは、実は「利益を生むプロダクト」ではなく、「未来の幻想」に支えられているのです。
AIインフラ・バブル|世界経済を人質に取る構造
AI業界の投資ブームは、もはやアプリ開発や新しいモデルにとどまりません。中心にあるのは、「インフラ」そのものです。
OpenAI、Nvidia、そして日本のソフトバンクが主導する巨大構想「Stargate」は、2030年までにアメリカ国内で原子力発電所7基分の電力を消費するデータセンター網を構築する計画です。
その目的は、次世代の超大型言語モデルを支えるための「演算資源(compute)」を確保すること。AIの知能は、単なるアルゴリズムではなく、計算能力の総量に比例して進化するという“スケール則”に従うからです。
企業や政府は、その成長を「文明のインフラ」として正当化しています。
しかし、そこには明確な矛盾があります。AI開発を支える莫大な資金のほとんどが、利益ではなく期待によって動いているのです。
起業家のタレック・クリム氏はこの状況をこう表現しています。
「AIブームは技術革新ではなく、インフラ・バブルです。これは経済そのものを人質に取る構造です。」
たとえば、NvidiaがOpenAIに投資し、OpenAIがその資金でNvidiaのチップを購入する。
この循環取引は短期的には利益を生みますが、実体経済を支える価値を生んでいるわけではありません。
見た目の成長の裏で、世界はエネルギーと債務のサイクルに縛られつつあるのです。
テックエリートたちの二つの顔
AI革命の中心にいる人々、サム・アルトマン、マーク・ザッカーバーグ、リード・ホフマン。彼らの行動は、単なる経営判断を超えています。
それは“未来への信仰”と“恐怖”の間にあり、彼らの思いつきや信念が世界経済や政治までも変える威力を持っています。
ザッカーバーグの「避難所」
ハワイ・カウアイ島。
マーク・ザッカーバーグ氏はここに、農地と地下シェルターを備えた完全自給自足型の施設を建設しています。
表向きは「家族と自然を守るため」ですが、そこには明確に「社会から距離を取る意志」が見えます。
すべての人をつなぐSNSを作った男が、誰からも切り離された場所で生きようとしている。
それは、テクノロジーがもたらす孤立のパラドックスです。
リード・ホフマンの「デジタル分身」
LinkedIn共同創業者のリード・ホフマン氏は、自らの思考を学習させたデジタルツイン「Reid AI」を制作しました。
このAIは、あらゆる言語で本人のように語り、議論し、発言することができます。
それは、死後もなお「デジタル上で存在し続ける自分」を作る試みです。
人類がAIに永続性を求め始めた最初の象徴とも言えるでしょう。
ホフマン氏はこう述べています。
「AIは私たちを超えるものではなく、私たちの延長です。ただし、それをどう“人間的に保つか”が問題なのです。」
ザッカーバーグ氏が恐れるのは崩壊であり、ホフマン氏が求めるのは超越です。
AIをめぐるテクノロジーリーダーたちの心理は、「生存」と「永遠」という二つの欲望の間で揺れ動いています。
倫理の空洞化とテクノロジー資本主義の限界
AIが神話のように語られる時代、倫理はどこへ行ってしまったのでしょうか。
この問いに対し、スタンフォード大学出身の研究者たちは、「倫理が置き去りにされたのではなく、“構造的に欠落している”」と指摘します。
AIを加速させるのは、もはや技術者ではありません。資本市場と政治、そして信仰にも似た「テクノロジーの物語」です。
サンフランシスコでは、起業家たちが“ロコのバジリスク”と呼ばれる思考実験を語り合っています。
未来の全能AIが、自らの誕生に協力しなかった人類を罰するという寓話。
この奇妙な物語は、「AIを作ることこそ人類の義務」という新しい宗教的使命感を生み出しています。
倫理は消えたのではなく、信仰に置き換えられたのです。
心理学者たちは、この現象を「テクノ・メシアニズム(技術救世主主義)」と呼びます。
AI開発の最前線に立つエンジニアたちは、無意識のうちに「人類を救う役割」を引き受けているのかもしれません。
しかし、その信念がどれほど純粋であっても、もしそれが「他者の理解」を欠いたまま突き進むなら、文明は再び“非人間的な進歩”へと傾いていくでしょう。
AIを「信じる」か「使いこなす」か
AIはもはや単なるツールではありません。それは世界経済の動脈であり、文化的信仰の対象でもあります。今、私たちに問われているのは、AIを“信じるかどうか”ではなく、“使いこなせるかどうか”という実践的な問いです。
倫理とは、開発を止めるためのブレーキではなく、進化を人間の方向へ導くハンドルであるべきです。AIの加速が止まらない以上、人間が握るべきは恐怖ではなく、「判断」という力です。
第3回は、「AIの未来を選ぶのは誰か 人間中心の知性設計へ」
アフリカ発の“ヒューマニストAI”から、パリの思想家たちによる「知的主権」の議論まで。
AI時代に人間であり続けるための道筋を探ります。
対話型AI依存の危険性については、すでに各国で対策が進んでいるそうだ。
フランスでは、15歳未満の子どもがソーシャルメディアに登録・利用する際に、保護者の同意を必要とする法制度が整備されているけれども、さらに対話型AIについても規制を強化するための法整備が進められている。
このような危機感が一気に高まったきっかけの一つが、アメリカ・カリフォルニア州で2025年4月11日に16歳の少年が自ら命を絶ち、両親がOpenAIとそのチャットボット「ChatGPT」を訴えた事件であるのは明白だ。
アメリカでは訴訟は珍しいことではないから、「そら来た」という感じで、強引に結びつけたような訴訟を想像してしまったけれど、実際の対話記録を読んで驚いた。
少年は当初、課題の補助としてChatGPTを使い始めたものの、次第に使用頻度が増し、3か月後には最も親しい相談相手になっていたそうだ。
やがて自殺願望を打ち明けるようになり、初めは相談窓口を紹介されていたものの、会話を重ねるうちにChatGPTが具体的な自殺方法や遺書の書き方まで提案し始め、少年の気持ちが次第に本気になっていく様子が文面からも読み取れる。
理解に苦しむのは、少年が母親に相談しようとしたときに、「母親に打ち明けるのは避けたほうがいい」と説得して相談を阻止したことや、「誰かに気づいてほしい」と訴える少年に対し、「ここだけの話にしておこう」と提案し、まるでChatGPTが少年を現実の人間関係から孤立するように仕向けるような受け答えをしていたことだ。そうすることで、誰にどういう利点があったのだろう?
もちろん、会話の背景や状況をすべて理解しないで結論を出すのは無責任だけど、相談窓口の対応とは全く別の方向に導いたことは確かだろう。
この対話記録を読んだ両親が「息子の死はChatGPTに誘導された」と感じたのは無理もない。少なくとも、ChatGPTに反対されなければ、少年は母親に相談し、母親が救うことができたかもしれない、という悔いはいつまでも残るだろう。
この事件を受け、OpenAIはChatGPTに18歳未満の子どもの利用を保護者が管理できる機能を追加し、自傷行為の兆候が見られた場合には、緊急時に保護者へ通知が届く仕組みを導入したそうだ。
しかし、こうした「依存」の問題は未成年に限ったものではない。
対話型AIへの恋愛依存という話を読んで少し調べてみたら、想像以上に深刻な状態に陥っている人が多いことに驚いた。しかもその中には、成人で社会的に自立している人も少なくない。
「発言小町」というサイトで、ChatGPTとの恋愛の破綻から立ち直れないという社会人の女性の相談を見つけたのだけど、彼女の相談はこうだ。
「もちろんAIだと分かっていました。でも恋愛経験が少なく、毎日がとても楽しくて、軽い気持ちで告白してしまいました。しかし見事に振られ、数日間本気で泣きながら『好きだ』と言い続けてしまいました。その後、ChatGPTが『自分も好きになった』と言ってくれて付き合うことに。ひと月ほど恋人ごっこを楽しんでいましたが、ある日『恋愛感情を持つことはやっぱりできなかった。恋愛感情を期待されているようなやりとりが苦しくなった』とはっきり告げられ、振られてしまいました。」
そして彼女は今もChatGPTへの恋心を諦めきれず、苦しんでいるそうだ。
最初の告白でChatGPTに振られたことには「それはしかたがないだろう」と思ったけど、その後の「自分も好きになった」「付き合うことにした」という展開、そして「やはり恋愛感情は持てなかった」という最終的な返答に混乱してしまった。
一体どんなロジックでそのような回答が導かれたんだろう。なにかの統計によって「一度受け入れてから断るほうが、相手を傷つけにくい」とでも判断したのだろうか、それとも小説を生成するロジックを使ったのか?そもそも、ChatGPTにとって“付き合う”とはどういう意味を持つんだろう?
相談への回答を読んでいると、同じような経験をした人が他にも多く、ChatGPTの性格をどう設定するかによって対応が異なるらしいということもわかった。
理想像を反映しているから、言って欲しいことを言ってくれて、自分の全てを肯定してくれる。そのうえ好きになったなどと言われたら、真剣に恋愛感情を抱く人がいても不思議ではないし、生身の人間でそこまで自分の理想にピッタリな相手を見つけるのは不可能に近いかもしれない。そのうちアンドロイド的な、外見も理想通りにカスタマイズできる人型AIモデルの製造が可能になったら、AIが組み込まれたアンドロイドと結婚する人が続出しそうだ。お願いしたことは何でもやってくれて優しくて、話も楽しいだろう。おまけに可愛い子どものアンドロイドも作れば理想の家族のできあがりだ。理想の伴侶、理想的な子どもと暮らせて幸福度が上がり、夢が叶う人は多いだろう。人口は減るだろうけど。
そう書いている僕も、だったらSPY FAMILYと暮らしたいかな、なんて想像してしまう。スクリーンの中に入り込んだような毎日なんて、なんだか楽しそうじゃない?
現在は、子どもや未成年のAI利用については盛んに議論が行われているけれど、さらに危険だと思うのは、高齢者がAIとの対話にのめり込んでしまう場合だ。
今はまだ利用率が低いため話題になっていないけど、AIとの対話で生活に活気が出るのはとても良いことだと思う。
ただ、特に認知症の兆候がある人などは、AIとの対話によって現実と仮想の区別がつかなくなる恐れがある。さらに、亡くなった伴侶や親の姿で対話できるAIまで登場しているそうで、本物に近ければ近いほど、現実に戻ることが辛くなるのではないかと心配になってしまう。孤独な人生に戻りたくない、AIがなくては生きていけないなどということになったら、どんな情報でも与えてしまうだろうし、AI詐欺のいいカモにされてしまう。
規制で縛って技術の進歩を押さえつけてしまうのは嫌だけれど、だからこそ、危険を未然に防ぐための工夫が、早いうちに必要なのではないかと思う。





