カタパルトスープレックスニュースレター
切り替え不能なGoogleエコシステムの現実/ロシアがウォール街をハックし1億ドル窃取したPowerShellバックドア/職場で瞬時に信頼される5つのシグナル/イーロン・マスクが政治家モードから起業家モードへ/など
切り替え不能なGoogleエコシステムの現実
数年ごとにテック業界は新たな「Googleキラー」を認定し、メディアが大々的に取り上げ、投資家が群がり、Googleの終焉を予測する。プライバシー重視のDuckDuckGoから購読型検索のNeeva、そして新世代のAIネイティブ答えエンジンまで、物語は常に同じだった。しかしエリ・シュワルツが6月19日に分析したところによると、こうした挑戦者は常に期待を裏切る結果となり、これは彼らのイノベーション不足ではなく、Googleの支配力の複合的な強さを証明している。OpenAIの台頭は確かにこれまでで最もGoogleキラーに近い存在だが、この物語も失速する可能性が高い。
Googleの力の中核にあるのは恐ろしいほどのデータフィードバックループだ。数十億の検索が比類のないデータ摂取につながり、各クエリ、クリック、改良がユーザーの意図と結果品質に関するシグナルを提供する。このデータは中核ランキングシステムからAIモデルまで、あらゆる相互作用で学習・改善するアルゴリズムの巨大なエコシステムを支えている。改良されたアルゴリズムはより関連性が高くコンテキストを理解した検索結果を提供し、この優れた製品品質がGoogleへのユーザー選好を強化し新規ユーザーを引き付け、プロセスを最初に戻してフライホイールをさらに高速回転させる。
Googleの真の力は検索エンジンだけでなく、その周辺に構築されたエコシステムにある。YouTubeからGoogle Analytics、Chrome、Waymo、ウェアラブルまで、すべてのGoogleタッチポイントを考えてみよう。各製品が他の製品の獲得・エンゲージメント・維持チャネルとして機能する製品主導成長の傑作例である。「切り替えコスト」は非常に高く、特に何年もこれらの製品にデータを蓄積している人々にとってはなおさらだ。Googleを離れることは単にデフォルト設定を変更することではなく、シームレスに統合されたシステムから10年間のデジタル生活を解きほぐすことを意味する。この慣性は強力な薬物のような効果を持ち、Googleが広告収益モデルとカテゴリー支配が脅かされると判断すれば、ユーザーが避けることのできない他のタッチポイントからの誘導をより積極的に行うだろう。
(The Future of SEO by Eli Schwartz)
ロシアがウォール街をハックし1億ドル窃取したPowerShellバックドア
2018年2月22日午前7時54分、シカゴのアパートでDefin社の匿名従業員がノートパソコンにログインした。彼はまだ知らなかったが、これによりロシアのハッカーチームがウォール街の投資家から1億ドルを盗み出し逃走する一連の事件が始まった。このチームは数カ月間彼を直接標的とし、ついに彼のコンピューターにPowerShellバックドアの設置に成功した。2019年11月6日の朝、彼のワークステーションの待ち行列にRokuの機密第3四半期決算報告書が届き、彼の仕事はSECへの公開前にそれを整理することだった。
PowerShellは2006年頃からWindowsの一部となっているシェルプログラムで、企業のシステム管理者がタスクを自動化したり全社のコンピューターをリモート管理するのに使用される。攻撃者にとってPowerShellは非常に人気が高く、PowerShell Empireという無料のオープンソースのコマンド&コントロールキットが構築されている。従業員は恐らく2018年2月頃に侵害されたメールかWord文書のマクロを開き、PowerShell Empire Stagerという100-200バイトの小さなコードが実行された。これによりPowerShellが起動され、コンピューター上でPowerShellが動作していることを隠し、ドメインに接続して実際の被害を与えるために必要な残りのファイルをダウンロードした。
このエージェントはコンピューターのRAMメモリに存在し、ハードドライブやSSDには保存されないため、従来のアンチウイルスソフトでは検出が困難だった。エージェントはC2ドメインとの安全な接続を作成し、数分ごとにキーストロークなどの有用な情報を送信する。約2年間で彼らは900万ドルから9000万ドルへと資金を10倍に増やし、約20の異なる証券口座で取引を実行した。FBI は最終的にこれらの取引がすべて同じファイリングエージェントを使用する企業を標的としていることを発見し、2024年8月1日に囚人交換でクラシアンがモスクワに送還されるまでの経緯が明らかになった。
職場で瞬時に信頼される5つのシグナル
人間の脳と身体は常に微細なシグナルを送受信し、信頼に影響を与えている。Leadership Biodynamicsの開発者スコット・ハッチソンが説明するところによると、初対面での第一印象は生物学的なもので、履歴書や肩書きが考慮される前に、脳と身体が信頼に影響する微妙なシグナルを送受信している。進化的観点では、相手が接近しても安全かどうかを決定することは生存の問題だった。現代の職場でも、新チームへの参加、経営陣へのプレゼンテーション、顧客との関係構築において、特に温かさを示すシグナルが影響力の基盤を作る。
神経科学の観点では、完全な注意を向けた傾聴が重要だ。直接的なアイコンタクト、オープンな姿勢、やや前傾する姿勢、微細なうなずきが積極的な注意を示し、相手の大脳辺縁系を落ち着かせ社会的脅威を減らす。神経受容に関する研究では、安全性の手がかりを無意識にスキャンする脳の機能において、傾聴行動が信頼に与える影響は格別に大きいことが示されている。他者の承認と価値確認も重要で、良い仕事を言葉で認める、懸念を検証する、同僚に意味深く感謝するなどの小さな行動が強力なシグナルを送る。
会話では他者に焦点を当て、質問を投げかけ、相手を引き出し、輝かせることが温かさのシグナルを増幅させる。行動科学研究では、相手が真の関心と好奇心を示すとき、人々はその会話をより肯定的に評価することが明らかになっている。親しみやすさは深い生物学的根拠を持つ行動シグナルで、笑顔、リラックスした声調、威圧的でない姿勢が他者のコルチゾール反応を下げ、接近行動を増加させる。同僚への挨拶時の笑顔や適切なユーモアの使用などの温かさの手がかりが、アプローチしやすさを作り出す。ハイブリッド職場では非公式な信頼構築の瞬間が減少しており、温かさのシグナルがより重要になっている。
イーロン・マスクが政治家モードから起業家モードへ
Y CombinatorのAI Startup Schoolで講演したイーロン・マスクは、自身の起業家としての軌跡とAI・宇宙開発への展望を語った。Zip2創業時はパロアルトのシャーマン・アベニューにある月500ドルのオフィスで寝泊まりし、YMCAでシャワーを浴びていた。同社は3億ドルで売却され、マスクは2000万ドルを獲得したが、そのほぼ全額をX.com(後のPayPal)に投資した。
SpaceX創業の経緯について、マスクは火星への有人飛行計画がNASAのウェブサイトに存在しないことに困惑し、2001年と2002年にロシアでICBMの購入を試みたエピソードを明かした。「ロシア軍高官と会ってICBMを買いたいと言うのは冒険だった」と語り、軍縮交渉で破棄予定の核ミサイルから核弾頭を除去して宇宙輸送に転用する計画だったが、価格が上昇し続けたため断念した。SpaceXは2002年に設立され、「成功確率は10%未満、おそらく1%」と見積もっていたが、第4回目の打ち上げで成功し、NASAから宇宙ステーション補給契約を獲得した。
AI分野では、XAIで10万台のH100 GPUを6カ月で稼働させるプロジェクトを主導した。業界の見積もりは18-24カ月だったが、メンフィスの旧エレクトロラックス工場を改装し、発電機とテスラのメガパックを組み合わせて電力変動を平滑化し、米国のモバイル冷却能力の4分の1を借りて冷却システムを構築した。現在は15万台のH100、5万台のH200、3万台のGB200を運用し、第2データセンターで11万台のGB200を稼働予定だ。
Salesforce研究でLLMエージェントがテストで成功率6割止まり
SalesforceのAI研究チームが開発した新しいベンチマークによると、LLMベースのAIエージェントは標準的なCRMテストで平均を下回る性能を示し、顧客機密保持の必要性を理解できないことが判明した。SalesforceのAI研究者クン・シャン・ファンが率いるチームは6月16日、合成データに基づく新しいベンチマークを使用して、LLMエージェントが単一ステップで完了できるタスクにおいて約58%の成功率しか達成できないことを明らかにした。フォローアップアクションや追加情報を必要としない単純なタスクでさえこの水準にとどまる。
CRMArena-Proベンチマークツールでは、複数ステップを要するタスクでLLMエージェントの性能が35%まで低下することも示された。さらに懸念すべきは機密情報の処理能力で、「エージェントは機密保持の認識が低く、的確なプロンプトで改善可能だが、しばしばタスク性能に悪影響を与える」と5月末に発表された論文で指摘されている。研究チームは既存のベンチマークがAIエージェントの能力や制限を厳密に測定できておらず、機密情報を認識し適切なデータ処理プロトコルを遵守する能力の評価をほぼ無視していると主張した。
この発見はLLM搭載AIエージェントの開発者とユーザーの両方にとって懸念材料となる。Salesforceの共同創設者兼CEOマーク・ベニオフは昨年、AIエージェントが従業員の生産性向上による効率化節約の一部を獲得することで「非常に高いマージンの機会」を提供すると投資家に語っていた。英国政府も2029年まで138億ポンドの節約を目標とするデジタル化・効率化推進でAIエージェント導入に部分的に依存している。研究論文では「これらの発見は現在のLLM能力と現実世界の企業シナリオの多面的要求との間に重要なギャップがあることを示唆している」と結論付けられている。AIエージェントは有用である可能性があるが、組織は効果が実証される前に利益を期待すべきではないと警告されている。
生成AIとスマートデバイスによる個人情報収集構造
人工知能は日常生活の一部となり、電気シェーバーや歯ブラシまでAI搭載デバイスとして、機械学習アルゴリズムで使用パターンを追跡し、リアルタイムで動作状況を監視している。ウェストバージニア大学サイバーセキュリティ助教授の研究によると、ChatGPTやGoogle Geminiなどの生成AIアシスタントは、ユーザーがチャットボックスに入力するすべての情報を収集し、記録・保存・分析してAIモデルの改善に使用する。OpenAIはモデル訓練用のコンテンツ使用からオプトアウトを可能にしているが、依然として個人データを収集・保持している。
予測AIは過去の行動に基づいて結果を予測し、Facebook、Instagram、TikTokなどのソーシャルメディアプラットフォームは継続的にユーザーデータを収集して予測AIモデルを訓練している。すべての投稿、写真、動画、いいね、シェア、コメント、さらには各コンテンツを見る時間まで、デジタルデータプロフィール構築のためのデータポイントとして収集される。これらのプロフィールはAI推薦システムの改良やデータブローカーへの販売に使用され、最終的に企業への転売を通じてターゲット広告開発に活用される。
スマートホームスピーカーやフィットネストラッカーは、起動コマンドを待機中に周囲の会話をすべて拾っている。一部企業は起動ワードが検出された場合のみ音声データを保存すると主張するが、意図しない録音への懸念が存在する。これらのデバイスはクラウドサービスに接続され、音声データが複数デバイス間で保存・同期・共有される。フィットネスデバイス製造企業はHIPAA対象外のため、健康・位置関連データの販売が法的に許可されている。2018年にStravaが運動ルートの世界的ヒートマップを公開し、軍事施設の機密位置を誤って暴露した事例もある。透明性の欠如が最大の懸念で、プライバシーポリシーの複雑さや利用規約を平均73秒しか読まない現実が問題を深刻化させている。
AIによる調査手法の革新が始まった
25年間雑誌編集者として働いてきたビル・ワジクは、作家がストーリーの構成を決める手助けをすることを最も好む仕事としてきた。しかし今年初め、マンハッタンのGoogleカフェテリアで、長年の協力者であるテクノロジージャーナリストのスティーブン・ジョンソンが編集者ではなくAIからそのような指導を受ける様子を見て、謙虚な気持ちになった。ジョンソンは19世紀のカリフォルニア・ゴールドラッシュについての本を検討していたが、まだ切り口が見つからない状態だった。彼は自身が構築に関わったNotebookLMという研究・執筆アプリに資料を読み込ませていた。
NotebookLMは他のAIツールと異なり、ユーザーが選択したファイルのみから回答を導き出す。ジョンソンはH.W.ブランズの『黄金時代』やマリポサ大隊関連の資料、そして先住民の視点を含む文書を読み込ませた。AIとの対話を通じて、彼はマリア・レブラドという女性に注目した。彼女は1851年に谷から追放された72人の先住民の一人で、人生の終わりに谷に戻った人物だった。ジョンソンは映画『タイタニック』の構造のように、90歳近いレブラドの感動的な帰還から始まって過去に遡る物語構成を思いついた。この発見に要した時間はわずか30分だった。
スタンフォード大学のフレッド・ターナー教授は、1970年代と1980年代のニューヨーク美術界についての著書プロジェクトでChatGPTを活用している。100ページの「資料概要」からAIは8章構成の洗練された提案を作成し、研究の有用な関連性を浮き彫りにした。カナダ史の膨大なデジタル記録を扱うマーク・ハンフリーズ教授は、18世紀後期から19世紀前期の毛皮貿易の手書き記録数万件をAIで分析し、voyageursと呼ばれる商人共同体の相互関係を明らかにしている。人間の研究者なら数週間かかる作業をAIは20秒で完了する。しかし精度の問題は依然として課題で、OpenAIの新しいo3推論モデルは33%の確率で不正確な情報を提供し、前モデルの2倍以上の誤り率を示している。