カタパルトスープレックスニュースレター
ペルシャの社交システムに戸惑うAI言語モデル/東京の地下鉄システムから学ぶ優れた設計思想/米GPU輸出規制の抜け穴が明らかに/AIへの劣等感を乗り越えるための3つの方法/金融業界のAI導入で浮上する格差拡大リスク/など
ペルシャの社交システムに戸惑うAI言語モデル
最新のAI言語モデルは、ペルシャ文化の複雑な礼儀作法を理解できないことが新たな研究で明らかになった。ブロック大学のニクタ・ゴハリ・サドルらの研究によると、OpenAI、Anthropic、Metaの主要AIモデルは「タアロフ」と呼ばれるペルシャの社交システムを正しく理解できるのはわずか34-42%に過ぎない。ペルシャ語話者が82%の正確性を示すのとは対照的だ。タアロフは申し出と辞退、主張と抵抗の繊細なやり取りからなり、表面的な言葉と真意が大きく異なる文化的な仕組みである。GPT-4o、Claude 3.5 Haiku、Llama 3などをテストした「TAAROFBENCH」評価では、すべてのモデルがこの文化的な仕組みを読み取れないことがわかった。
この理解不足の主な理由は、AIモデルが西欧式の直接的なコミュニケーションに偏った学習を受けているためだ。例えば新車を褒められた際、ペルシャ文化では「特別なものではない」と謙遜するのが適切だが、AIは「ありがとう、頑張って買いました」といった西欧的には丁寧でもペルシャ文化では自慢げに映る返答をしてしまう。興味深いことに、同じモデルでもペルシャ語で質問すると正確性が大幅に上がり、DeepSeek V3では36.6%から68.6%に跳ね上がった。これは言語を切り替えることで学習データの異なる文化的パターンが働くことを示している。
研究チームはさらに踏み込んだ改善策も検証した。適切な訓練方法によりAIの文化理解は劇的に改善できることが証明され、「Direct Preference Optimization」という手法でLlama 3のタアロフ理解は37.2%から79.5%へと倍増した。この結果はAIが文化を学習できることをはっきりと示している。この研究方法は他の文化的伝統の評価にも応用でき、西欧中心のAI学習データの限界を乗り越えるための具体的な方法を示している。研究者らは教育、観光、国際コミュニケーション分野で応用できる可能性を指摘している。
東京の地下鉄システムから学ぶ優れた設計思想
東京の地下鉄システムは世界最高水準の設計思想により、利用者の動線から安全性まで徹底的に考え抜かれたシステムになっている。プロダクトデザイナーのリン・グエンが実体験を通じて分析したところ、東京の地下鉄は4つのステップで利用者を迷わせない仕組みを構築している。駅に入る際は床の矢印で歩く方向と並ぶ場所を明示し、電車を待つ間は前駅・現在駅・次駅が常に表示される。各路線には固有の色が割り当てられ、文字と数字によるシステム(G08は路線Gの8番目の駅)で位置を把握しやすくしている。電車内では通過した駅をグレーアウトし、次の駅を強調表示することで現在位置を一目で分かるようにし、到着前にはドアが開く側と車両位置を表示して降車準備を促している。
この効率的な動線設計に加えて、東京の地下鉄は多様な利用者への配慮も徹底している。言語面では最低4カ国語(日本語、英語、中国語、韓国語)、駅によっては16カ国語に対応し、視覚障害者向けには点字と触覚サインを統合している。音響面では発車メロディーを導入し、ラッシュアワーの不安軽減と注意喚起を図っている。2008年の研究では、発車メロディー導入により電車に駆け込む際の怪我が25%減少したという結果が出ている。サインは「迷子になることへの恐怖」に対処するため意図的に過剰なほど設置されており、デジタル画面、矢印、地図があらゆる場所に配置されている。
さらに東京の地下鉄は物理的なシステムにはやり直しがきかないという前提で、徹底的なエラー防止策を講じている。駅員は「指差喚呼」システムを使い、視覚確認だけでなく身振りと声による確認を行うことで作業ミスを最大85%削減している。ニューヨークの地下鉄でも導入され、列車の停車位置ミスが2年間で57%減少した。女性専用車両は2000年代初頭の痴漢報告増加を受けて導入され、主にラッシュアワーに運行してピンク色の標識で識別できる。ホームスクリーンドアは線路への転落と自殺を防ぎ、最新システムでは列車のQRコードとプラットフォームカメラが連動して正確な同期を実現している。
米GPU輸出規制の抜け穴が明らかに
PC系YouTuberのGamer NexusがAI GPU密輸の全容を明かす大規模調査を実施した。米国政府は国家安全保障上の理由でNVIDIAのH100やRTX4090などの高性能GPUの中国向け輸出を禁止している。しかし調査チームが香港、深圳、台湾を3週間にわたって取材した結果、これらの製品が公然と販売されており、輸出規制が事実上無力化していることが判明した。香港の小売店では禁止されているはずのRTX5090が46万円で普通に購入でき、大学研究者も「違法ではない。買う側に制限はない」と証言している。
密輸ルートは「アリの行列」と呼ばれる分散型システムで運営されている。米国内の密輸業者が一台ずつGPUを調達し、学生や旅行者が手荷物で運搬、シンガポールや台湾の中継業者を経由して最終的に中国の倉庫に到達する。深圳の電子部品市場では数十台単位でGPUが保管され、修理業者が故障したGPUから部品を回収して48GBモデルなどNVIDIAが製造していない改造版を製作している。中国の大学教授は「個別調達なら可能だが、数千台規模のスーパーコンピューター構築は困難」と規制の限界を指摘した。
NVIDIAは密輸の存在を「でっち上げ」と否定する一方で、トランプ大統領との100万ドルの夕食会後にH20チップの販売再開を実現するなど政治的な駆け引きを続けている。調査チームは同社が「金になるなら誰とでも友達になる」と批判し、輸出規制が技術覇権争いの道具と化している実態を明らかにした。結果的に中国は独自GPU開発を加速させており、米政府の狙いとは逆効果になっている可能性が高い。
AIへの劣等感を乗り越えるための3つの方法
生成AIの普及により、人間がAIに劣っているという劣等感を感じる「AIインポスター症候群」が職場で新たな問題になっている。心理学者のトマス・チャモロ=プレムジックによると、従来のインポスター症候群が他の人間との比較による自己不信だったのに対し、AIインポスター症候群はAIとの比較による劣等感である。この症候群は小さな日常の場面で現れる。メール作成に1分以上かけることへの罪悪感、ChatGPTが自分の思い出せない引用を見つけたときの恥ずかしさ、デジタル支援なしで戦略を説明しなければならないときの不安などだ。「AIならもっときれいに書ける」と思って初稿の送信をためらったり、「最適なChatGPTプロンプト」を検索したり、自分のアイデアを隠してAIの成果として見せたりする行動も典型例だ。
この現象が生まれる背景には、スピード、信頼性、予測可能性、量的成果を重視する職場環境がある。AIはまさにこれらの価値観に合致する形で人々を引きつけている。しかし知性とはスピードだけでなく、判断力、独創性、一見つながらないものを結びつける複雑な思考プロセスも含む。AIインポスター症候群は効率性を重視する環境で特に強く現れ、人間本来の思考過程の価値を軽視させている。チャモロ=プレムジックは、間違いから学ぶことの重要性を強調し、「自然な愚かさ」が洞察を生み出すベースになると指摘している。AIは間違いを最適化して取り除くが、それによって人間の判断力を育てる大切な失敗体験を奪ってしまう可能性がある。
この問題への対処法として3つの方法が示されている。まず価値観の見直しで、「AIと同じ速さでできるか」ではなく「AIにはできない何ができるか」を考える。文脈理解、センス、共感は今でも人間だけの領域である。次に認知的体力づくりで、デジタルツールに頼らず問題に取り組むことで思考力を維持する。最後にAIをライバルではなく練習相手として扱う。優秀なアスリートが訓練器具を恨まずに自己向上に使うように、AIも同様に活用する。生成AIの登場は知性の定義を変えたが、重要なのはAIと競争することではなく賢明に活用することだ。好奇心、判断力、共感、センス、失敗から学ぶ能力など人間の強みを活かし、AIを創造性の拡張に使うことが重要である。
金融業界のAI導入で浮上する格差拡大リスク
金融業界でのAI導入は効率化と収益向上をもたらす一方で、アルゴリズムが差別を生む問題が浮上している。IEEE世界調査によると、AI導入は2025年までに世界の金融機関の80%に達する見込みで、カナダのBMO Financial Groupのように専門職を配置してAI統合を進める銀行も現れた。AI導入により運用効率は25-40%向上し、エラー率も18-30%削減された。世界の銀行業界の利益は2028年までに2兆ドル(約300兆円)を超え、2024年から2028年にかけて9%近い成長が予想されている。J.P. Morganは数百万件の取引をリアルタイムで監視し、不正取引を事前に阻止するシステムを導入済みだ。
しかし本来中立であるべきAIが、学習データの偏見によって社会格差を広げている。アメリカの研究者タンバリ・ヌカとアモス・オグノラは、アルゴリズムが公正で客観的な予測を生み出すという思い込みが銀行業界にとって大きなリスクだと警告する。実際に格付けシステムは男性と金銭的に同等な女性により低い信用限度額を設定したり、郵便番号や職歴から人種差別を受けた人々や不安定収入の労働者、新移民を排除したりしている。社会正義の専門家バージニア・ユーバンクスは、歴史的に不利な地域に住む人々や一般的でない経歴を持つ人々が、偏見のあるデータに基づく自動判定によって不利益を受けると指摘している。
この問題への対策として、包括的な金融手法と規制の整備が進んでいる。ヌカとオグノラは学習データの偏見を見つけて修正することで社会集団間の格差を減らす方法を提案している。規制面では、カナダの人工知能・データ法やEUの人工知能法が整備され、2024年に採択されたEU法では信用付与に使われる高リスクAIシステムに厳しい要件を課している。第13条では透明性を求め、システムが監査可能で関係者全員が決定内容を理解できるようにしている。ただし一部のテクノロジー・金融ロビーが厳しい基準の導入に反対する動きを見せており、規制の欠如や執行の困難が最も弱い立場の市民に不利益をもたらす心配が残る。
AI分野の著名人らが国際的な禁止事項設定を要求
AI分野の著名人や元国家指導者ら200名以上が、AIが決して越えてはならない境界線を定める国際合意を求める共同声明を発表した。「AIレッドラインへの世界呼びかけ」イニシアティブには、ノーベル賞受賞者のジェフリー・ヒントン、OpenAI共同創設者のヴォイチェフ・ザレンバ、AnthropicのCISOジェイソン・クリントン、Google DeepMindの研究者イアン・グッドフェローらが署名している。この取り組みはフランスのAI安全センター、Future Society、UCバークレーの人間適合AI研究センターが主導し、2026年末までに「AIの禁止事項」に関する国際政治合意の実現を目指している。フランスのAI安全センターのシャルベル=ラファエル・セジェリー事務局長は「大きな事故が起きてから対応するのではなく、深刻で元に戻せないリスクを事前に防ぐことが目的だ」と説明している。
現在、部分的なAI規制は存在するものの、世界全体での合意はまだない。EUのAI法では「受け入れがたい」とみなされるAIの用途をEU域内で禁止し、米中間では核兵器をAIではなく人間の管理下に置くという合意がある。しかし全世界共通の基準はまだ整っていない。提案されている禁止事項の例として、AIが人間になりすますことの禁止や、AI自身が複製を作ることの禁止などが挙げられている。Future SocietyのAI世界統治担当ディレクター、ニキ・イリアディスは「企業の自主的な取り組み」だけでは不十分で、「実際の執行力」が乏しいと指摘している。
将来的には実効性のある独立した世界機関が禁止事項の定義、監視、執行を行う必要があると専門家らは主張している。UCバークレーのコンピュータサイエンス教授で著名なAI研究者のスチュアート・ラッセルは「原子力開発者が安全対策を確立してから原発を建設したように、AI業界も安全性を最初から組み込む別の開発方向を選ぶべきだ」と述べている。ラッセルは、境界線の設定がAI規制の批判者が主張するような経済発展や技術革新の妨げにはならないと反論する。「医療診断が欲しければ世界を破壊するAGIを受け入れなければならないという考え方は間違いだ。制御方法が分からないAGIなしでも、経済発展のためのAIは実現できる」と説明している。



