01.開発者の意図を無視した「共同著作者」の付与02.AI無効環境でも刻まれるクレジットと「職業上のリスク」03.Microsoftの釈明とロールバック対応04.AIクレジット付与が突きつける法的・社会的な課題05.失われゆくMicrosoftの信頼と「エコシステムの私物化」開発者の意図を無視した「共同著作者」の付与
プログラミングエディタの世界で圧倒的なシェアを誇るVisual Studio Code(VS Code)が、開発者の意図を無視する形でAIの利用状況を記録しようとし、大きな波紋を呼んでいる。問題の発端は、2026年4月中旬にマージされた一つのPull Request(PR)だった。VS Code 1.110(2026年3月リリース)でひそかに導入されていた機能「git.addAICoAuthor」のデフォルト設定が、MicrosoftのプロダクトマネージャーであるCourtney Webster氏のPRによって「off」から「all」へと突然変更された。この変更はリリースノートで適切に告知されることなく、主要開発メンバーであるDmitriy Vasyura氏によって承認され、そのままメインブランチへと統合された。
この変更がもたらした結果は、多くの開発者にとって受け入れがたいものだった。設定が「all」になったことで、VS Codeを経由して行われるすべてのGitコミットの末尾に「Co-authored-by: Copilot copilot@github.com」というメタデータ(トレーラー)が自動的に追記されるようになった。インライン補完やAIエージェントの支援をわずかでも受けた場合、Copilotがコミットの「共同著作者」として半永久的にGitの履歴に刻まれる仕様である。
AI無効環境でも刻まれるクレジットと「職業上のリスク」
この変更は仕様の変更のみならず、重大な実装上の欠陥を抱えていた。開発者からの報告によれば、「chat.disableAIFeatures」を「true」に設定し、VS Code内のAI機能を完全に無効化している環境であっても、Copilotのクレジットが強制的に追加されるケースが相次いだ。
さらに悪質なことに、このトレーラーはコミットメッセージをエディタで記述している段階では画面に表示されず、コミット処理が確定した直後にバックグラウンドで付与される仕組みになっていた。開発者がコミット前にメッセージを注意深く推敲し、Copilotが生成したテキストを手動で削除したとしても、最終的なGitの履歴にはCopilotの名前が残り続ける構造である。
この挙動は、プロフェッショナルな開発現場において看過できないリスクを生み出す。ユーザーの「PufPufPuf2」氏が指摘するように、企業によっては未承認のAIツールの使用をセキュリティや著作権の観点から厳しく禁じている。もしAIを一切使っていないにもかかわらず、Gitの履歴に「Copilotとの共同作業」という記録が残れば、当該開発者は会社規定違反を疑われ、最悪の場合は解雇などの重大なペナルティを受ける可能性がある。これは単なるUIの不便さではなく、開発者のキャリアを直接的に脅かす問題だと言える。
Microsoftの釈明とロールバック対応
コミュニティでの炎上を受け、PRを承認したDmitriy Vasyura氏はHacker NewsやGitHub上で謝罪に追い込まれた。Vasyura氏は「邪悪な企業による悪意はなかった」と述べ、この変更が「AI生成コードに対して一部の顧客が期待する機能をサポートするためのものだった」と釈明している。
また同氏によれば、AI機能がオフの環境でもクレジットが付与される挙動や、手動でのメッセージ修正が反映されない挙動は「バグ」であり、テスト段階で検出されていたにもかかわらず、十分な検証が行われないまま本番環境にデプロイされてしまったという。
Microsoftは事態の収拾を図るため、問題のPRを取り消す修正(PR #313931)を急遽適用した。この修正により、「git.addAICoAuthor」のデフォルト値は再び「off」に戻され、AIが使用されていない状況で誤ってトレーラーが追加されるバグも修正された。このロールバックは、次期マイナーアップデートであるVS Code 1.119で正式に配信される予定である。
AIクレジット付与が突きつける法的・社会的な課題
VS Codeの騒動は、AIコーディングアシスタントが普及する中で業界全体が直面しているより大きな課題を突きつけている。AIによるコード生成への貢献度をどのように記録し、開示すべきかという問題である。
他社の動向を見ると、Anthropicの「Claude Code」もデフォルトで「Co-Authored-By: Claude」を追加する仕様を採用しており、開発者から無効化を求めるIssueが多数立てられている。OpenAIの「Codex」も2026年2月に同様のデフォルト設定を導入した。オープンソースプロジェクトの間でも対応は分かれており、Linuxカーネルの開発コミュニティはAIの支援を受けたコードに対して人間による署名とAI利用の明記を義務付けている一方で、Zig言語のプロジェクトのようにAIアシストによるコード提出を一切禁じているコミュニティも存在する。
AIの貢献をGit履歴に残すことには、法的な複雑さが伴う。現在の知財法制において、純粋なAI生成物は著作権保護の対象とはならない可能性が高い。そのため、AIがコードのどの部分を生成したのかが不明確なまま「AIとの共同著作」というメタデータだけが残ると、そのコードを利用した商用ソフトウェアの知財権の所在が曖昧になる。また、賠償責任保険の提供者が「AIが生成したコードが含まれていること」を理由に補償を拒否するリスクも指摘されており、安易なクレジット付与は企業にとって大きな負債になりかねない。
失われゆくMicrosoftの信頼と「エコシステムの私物化」
今回の事件に対する開発者の厳しい反応の背景には、Microsoftの強引なAI統合戦略に対する根強い不信感がある。「悪意はなくバグだった」というVasyura氏の釈明に対して、「自動有効化をバグの修正と主張するのは馬鹿げている」と冷ややかに受け取る意見が多いのはそのためだ。
Microsoftは近年、自社のあらゆる製品にCopilotを組み込むことに執念を燃やしている。Windows 11へのCopilot統合や、Word・ExcelへのAI機能追加に加え、2026年初頭にはGitHubのPull Request画面に「コーディングエージェントのヒント」と称して実質的な広告を挿入し、激しい批判を浴びたばかりである。
エディタは開発者にとって最もパーソナルでコントロール可能な聖域である。VS Codeはオープンソースのエコシステムと拡張性の高さを武器に圧倒的なシェアを獲得したが、Microsoftがそのプラットフォームとしての優越的な地位を利用し、自社AIのエンゲージメント指標を水増しするかのような変更をユーザーの合意なしに押し付けるのであれば、その前提は崩れる。すでに一部の著名な開発者はVS Codeから他のエディタへの移行を表明しており、度重なるGitHubの障害も相まって、Microsoftの開発者向けツール群に対する信頼は明らかに揺らいでいる。
VS Codeの成功は、コミュニティの声に耳を傾ける姿勢によって築かれたものだ。AIという新たな技術の波を統合する過程で、その根幹たる「開発者ファースト」の理念を見失えば、一度失われた信頼を取り戻すことは容易ではないだろう。