AIによる人的資本のポータブル化
―MIT・リー教授の全米経済学会講演―
はじめに
2026年初のAllied Social Science Associations (ASSA)年次総会で、MITのDanielle Li教授がAIに関する興味深い講演を行っていた[1]。本稿ではその内容を紹介する。
そのキーコンセプトは「AIは人間の知識や経験による熟練などの入れ物(receptacle)である」というものであり、AIと人間の労働の関係を理解する上で重要となる。
AI登場以前は、労働者が持つ職場における独自の情報、いわゆる暗黙知の多くは人間に「体化」されており、個人に帰属・蓄積されたものであった。講演の表現を借りれば、”labor lives in your body(労働はあなたの身体の中に宿っている)”である。引継ぎやマニュアル化などを通じて、暗黙知を会社に蓄積する試みは行われてはいるものの、労働者が抱えている膨大な情報に比べれば不完全なものにとどまっていた。
しかし、現代においては、PC、カメラ、高度なコンピュータ解析など様々な技術を用いた「監視」により、職場におけるあらゆる行為は「労働データ」として蓄積可能となっている。これらは、AIの世界において「学習データ」に転換され、「AI資本」として会社に蓄積される。つまり、「労働者の身体の中」という物理的な制約の下にあった人的資本は、今や個人の外部へと持ち出し可能となり、社内の誰もが利用できる可能性が生じている。これは、生産性向上のポテンシャルとなる。しかし、同時に、「労働データの所有権」という概念についての新たな課題や変化を生む。
講演は2つのパートに分かれる。前半は、AIが労働者に与える影響についての実証的な分析結果を示すもので、後半は、経済政策・労働市場の制度設計に関するものであった。講演者たちによる論文であるBrynjolfsson et al.(2025)およびCullen et al.(2026)が前半と後半に相当する。
AIと労働者の生産性に関する実証分析の結果
Brynjolfsson et al.(2025)の分析は、ビジネスプロセス・ソフトウェアを販売するフォーチュン500企業で働く5,172人のカスタマーサポート担当者を対象に、生成AIによる会話アシスタントを導入した際の変化を数か月にわたって追跡した調査に基づく。同調査は、実際の職場環境における生成AI導入の大規模調査の先駆けの一つとされる。
カスタマーセンターの調査データを活用する利点として、仕事が比較的定型化されていて単純であること、結果の多くが具体的であること、多くのケースでチームワークはそれほど必要とされていないことなどが挙げられる。加えて、講演では、カスタマーセンターがAIの学習にとって優れた「労働データ」を提供する場であることも強調された。これは、業務が以前から自然な形で大規模な監視下に置かれていることと関係する。具体的には、会話が冗談や沈黙を含めてすべて録音され、チャットやメールなどのテキスト情報とともにデータ化されており、顧客からの電話が無事に解決したか否か、その解決に要した通話時間、顧客による満足度アンケートなどの「結果」に関するラベルも自動的に付与される。
対話型のカスタマーサポート・アシスタントでは、顧客との対話は担当者が行う。会話アシスタントはカスタマーサポート担当者に対して、どのようにコミュニケーションをとるべきかというリアルタイムの推奨事項を提供する。提案は担当者のスクリーンにポップアップ表示され、それを採用するか、修正するか、あるいは拒否するかは担当者が選択する。この人間のアクションをAIが学習する。
こうした事例は、まさに人的資本をAI資本に変換する教科書的な見本と言える。監視によって得られた、労働者自身も言語化が難しいかもしれない暗黙知に基づく行為を、「良い」「悪い」でラベル付けされた労働データとしてAIに学習させ、次回の利用時には、「この状況において、良い労働者なら実際に何を言い、何をするだろうか?」という視点から回答を生成する[2]。もっとも、論文内で強調されている通り、このような単純な設定下で得られた知見は必ずしも即座に一般化できるものとは言えない。したがって、以下で紹介する分析結果は、マクロ的な生産性や分配・雇用への影響を明らかにするというよりも、AIが持つポテンシャルを示したものと解釈できる[3]。
平均的な生産性の向上
生産性の測定の中心となるのは、カスタマーセンターにおける古典的な結果指標「1時間あたり解決数(=1時間に何件の顧客からの電話を無事に解決したか)」である。ここでは、件数を多くこなし、それぞれを短い時間で処理し、解決率を高くすることが望ましいとされる。
講演ではAI導入前後の結果指標を比較した単純なグラフの提示に留まったが、論文では統計的な手法として、因果推論の典型的な手法の一つである差分の差(difference-in-differences)分析が行われており、下記の回帰式の推計結果が示されている。
yi,t = δt + αi + β AIi,t + Xi,t + εi,t
ここで、yi,t は担当者i、時点 t における結果指標(1時間あたり解決数)である。AIi,t は担当者 i が時点 t においてAIアシスタントにアクセスした場合に1、していない場合に0をとるダミー変数である。したがって、パラメータ β が関心事項となる。なお、δt により繁忙期や閑散期といった時変共通要因を、αi により時間に関わらず一定である担当者間の生産性の違い、つまり担当者要因をコントロールしている。さらに、Xi,t により担当者 i の時点 t における就業期間もコントロールしている。
分析結果によると、パラメータ β の点推定値は0.30で統計的に有意であった。AIアシスタント導入前の「1時間あたり解決数」の平均値は1.97であるため、点推定値の0.30は、担当者がAIアシスタントにアクセスした場合、全体平均で 1時間あたりの問題解決数が15%増加することを意味しており、生産性の向上が確認されている。なお、論文では、yi,tとは別に、解決率、顧客満足度、チャットスピードなどに対する影響も確認している。それによると、AIアシスタント導入による生産性向上は、解決率や顧客満足度に悪影響を与えることなくスピード面が強化されたことによる、と解釈できる。
労働者スキルの平準化
もっとも、生産性向上はすべての労働者に一様に観察できたわけではない。AIアシスタントが生産性に与える影響の大きさには「異質性」が認められた。担当者を通話処理速度、問題解決率、顧客満足度の3つの主要業績評価指標で測定したスキル指標の高低で区分した場合、生産性が最も上昇したのは最低スキル層であった。逆に、最もスキルの高い労働者層の生産性には有意な変化がなかった。さらに、興味深いことに、高スキル労働者の解決率と顧客満足度を見ると、むしろ低下するという不思議な現象が生じていた。
この結果は、「AIは人間の知識や経験による熟練などの入れ物である」という冒頭の議論と一致している。AIアシスタントは、最高レベルの知見を高スキル労働者や熟練労働者から「抽出」し、それを外部(社内)に拡散したことになる。低スキル労働者や経験の浅い労働者は、AIアシスタントの恩恵を受ける。一方、すでにトップパフォーマーである労働者は、AIに体化された自分の技能を提示されてもほとんど恩恵を受けない。解決率と顧客満足度の有意な低下を見る限り、むしろ、推奨事項のポップアップ表示が妨げとなり注意が散漫となった、あるいは、認知的な負荷が高い「自分自身で回答を考える」行為、すなわち「自分の潜在能力を引き出す努力」を放棄した可能性が示唆された。
以上の分析は、AIによる技術進歩が、初期のIT化の波で見られたような「高スキル労働者に有利で、低スキル労働者の仕事を奪う」ものではなく、逆に「低スキル労働者の能力を底上げし、格差を縮小させる(=スキルを平準化する)」可能性があることを実証的に示すものである。もしこれが真実であるならば、AIが生産性を向上させると同時にスキル格差を是正していく未来を描ける。しかし、本当に、労働者らは「特段の対価なく」自らの暗黙知を含む知識や経験を供給することに抵抗しないだろうか。この「AIの学習のもととなる知識を提供した高スキル労働者や熟練労働者にどう報いるべきか?」という問題が、講演後半の中心となった。
理論モデルに基づく最適な制度設計
講演前半では、実証分析の結果に基づき、AIが労働者の生産性に与える影響について、総じてポジティブであることが示された。一方、後半で説明されたのは、講演の核心部分である「専門知識の所有権」についてであった。こちらは、解決が容易でない深刻な問題として、言及されていた。
経済学の標準的な考え方では、労働はあくまで「フロー」であった。時間と質に応じて生産に貢献するものであり、いわゆる「人的資本」も労働者個人に帰属・蓄積され、仕事が終われば労働者の元に残ると考えられてきた。しかし、AIの登場により、高スキル労働者や熟練労働者が生み出した「労働データ」は「学習データ」へと転換され、「ストック」として企業に蓄積できるようになった。
ここで直面するのが、講演で「知識供給のジレンマ」と呼ばれた現象である。企業が高スキル労働者や熟練労働者の「コツ」や「経験に基づく判断」を学習した「IT資本」を用いて、低スキル労働者でも同じ価値を生み出すことができるようになったとき、高スキル労働者は自らの相対的な価値が下がることを予見する。スキルを吸い上げられてしまうと、給与交渉力が失われ、あるいは解雇されるかもしれない。合理的な労働者は、「あえて複雑で非標準的なプロセスで業務を行うなどして、AIに対して意図的に不完全な情報を与え、決定的なコツや暗黙知を隠す」などの「抵抗」を始めるかもしれない。抵抗はAIの進化を止め、職場ひいては社会全体の生産性を停滞させる可能性がある。
Cullen et al.(2026)は、この現象を説明するための精緻な理論モデルを構築している。講演では、以下のような理論モデルを用いた説明がなされた。
モデルは2期間であり、登場するのは1つの企業と異なるスキルを持つ有限の労働者である。第1期の労働者による知識貢献が、第2期のAI資本の学習データとなり、企業は知識貢献量に応じた質のAIを開発する。なお、重要な仮定として、知識貢献は労働者間で代替的であり、他者の知識貢献が十分に存在するときには、自分の知識貢献がAI資本の質を向上させる効果は小さくなる。また、労働者が知識貢献を制限する(=知識を隠匿する)際には隠匿コストがかかるものとする[4]。これは、先に挙げたような「あえて非標準的なプロセスで業務を行う」コストや、カメラ監視の例において「決定的なコツなどをカメラから隠す」コストに相当する。第2期のはじまりにおいて、労働者はそれぞれの交渉力に応じて賃金と雇用に関する交渉を企業との間で行う。交渉の結果が不一致となれば、その労働者は第2期に雇用されず、賃金も支払われない。
労働者は、第1期の自らの賃金から隠匿コストを差し引いた利得と、同じく第2期の利得の加重和を最大化する。一方、企業は、第1期の各労働者からの成果からそれぞれの賃金を差し引いた利得の総和と、同じく第2期の利得の総和の加重和を最大化する。ただし、第2期の利得では、それぞれの労働者において「労働者からの成果」と「AI資本がもたらす成果」のうち大きい方が採用される。
モデルの帰結を考える上で、二つの異なる世界を仮定する。一方は、労働者がスキルの収奪に無頓着な世界、もう一方は労働者が賢明な世界である。
無頓着な労働者は、第1期の知識貢献が第2期のAI資本の学習データとなることを知らない。したがって、第1期に最大限の知識貢献を行い、第2期にはAIによる収奪に直面する。すなわち、賃金の下落や雇用の喪失に直面する。ただし、この世界では、AI活用による潜在的な成果の増大が実現するため、マクロ的な総生産は最大化されている。問題は、生産性向上の果実がすべて企業に回り、労働者への配分が少なくなる点である。
他方、賢明な労働者は、知識貢献が「AI資本」を増強させて、将来自らの賃金や雇用を脅かすことを正確に知っている。この場合、労働者が知識を隠匿するインセンティブが働き、第1期には隠匿コストがかかるものの、第2期において労働者が無頓着な世界よりも高い賃金を得て、労働者全体の取り分を多くする。しかし、隠匿コストが生じていることに加え、AIが最大限に活用されないため、マクロ的な総生産の水準は低いものにとどまる。
上記は、「知識供給のジレンマ」のメカニズムを端的に描写したものである。講演では、さらに踏み込み、このような「市場の失敗」を回避するための制度設計が説明された。
興味深いのは、労働者に対して「データの個別所有権」を認め、知識貢献を企業が学習データとして利用することを制限する権利を持たせたとしても、労働者に有利とはならない点である。モデル上、労働者にデータの個別所有権を認めるということは、「交渉の結果が不一致となった場合に、企業が当該労働者の知識貢献をAI開発に利用できない」ことを意味する。この場合、労働者はより高い賃金を交渉できる可能性がある。つまり、データ提供による成果(の一部)を第2期の賃金として受け取ることが可能となる。結果的に、知識貢献が促され、労働者が無頓着な世界と同じくマクロ的な総生産は最大化される。企業にとっても、労働者が知識を隠匿しなくなるため、利益が増加する。
しかし、問題は企業と労働者の交渉において生じる「競争の外部性」である。すなわち、特定の労働者が企業と交渉し、高い賃金で学習データを提供すると、AIモデルが向上し、それが他のすべての労働者との交渉において労働者に不利な材料として使われることになる。場合によっては、労働者が無頓着な世界と同じく、労働者はAIによる収奪に直面する。
このような労働者の不利を克服するため、次に、データ共同体あるいは労働組合(以降、「組合」と呼ぶ)による交渉を認めることを仮定する。労働者個人ではなく、組合が企業と交渉し、不一致となった場合は、企業は一切の知識貢献をAI開発に利用できないこととする。この場合、特定の労働者のデータ提供が他の労働者の交渉力を弱めることはない。つまり、労働者がAIによる収奪に直面することはない。知識貢献が促され、マクロ的な総生産は最大化される。企業にとっても、労働者が知識を隠匿しなくなるため、個別所有権のケースほどではないが、利益が増加する。
まとめ
本稿では、ASSA年次総会におけるLi教授の講演と、そのベースとなった2本の論文の内容を解説した。AIの登場により、労働者個人の内部に制約されてきた人的資本が、外部へと持ち出され、社内の誰もが利用できる可能性が生じた。このことは、労働者の生産性向上と同時に、専門知識の所有権の問題を引き起こす可能性がある。講演では、労働者がAIへの学習協力を拒まないようなインセンティブ設計として、労働者のデータ所有権を認め、利用について組合による交渉を認めることが、社会厚生の観点から望ましいことが示された。

出所) 2026 ASSA Programのホームページより転載。
[1] 講演名は”Recent Developments in AI and the Labor Market”である。
[2] 会社側にトップパフォーマーの名前やIDを尋ね、彼(女)らによる会話などの労働データに「トップパフォーマー」のラベルを付けることによって、AIがより正確に「良い労働者」と「悪い労働者」を区別しやすくするという工夫もあった。
[3] 講演では、AIと労働に関する他のさまざまな研究結果も示され、Brynjolfsson et al.(2025)で得られた知見をどこまで一般化できるのかについて検証された。ここでは、AI導入後のスキルや賃金の格差について、縮小、拡大のいずれの研究結果も存在することが紹介され、こうした違いはAIの導入の在り方、例えば、「支援型コパイロット」か「完全自律型エージェント」か、などに依存する可能性が示された。
[4] より一般的な設定においては、隠匿に関わらず、提供そのものにコストがかかると仮定されるが、ここでは単純化している。
参考文献
Brynjolfsson, E., Li, D., & Raymond, L. (2025). Generative AI at Work. The Quarterly Journal of Economics 140(2), 889–942.
Cullen, Z., Li, D., & Li, S. (2026). Labor as Capital: AI and the Ownership of Expertise. Harvard Business School Working Paper, No.26-063, March 2026.
難波了一 (2025) 「ASSA年次総会参加報告 ―マクロ経済学の最先端に触れる ―」 SBI金融経済研究所Web レポート