PX14A6G 1 nlpc_px14a6g.htm NATIONAL LEGAL AND POLICY CENTER - PX14A6G

米国証券取引委員会

ワシントンD.C. 20549

 

 

免除勧誘の通知
ルール14a-103に従って

 

登録者の名前:マイクロソフトコーポレーション

免除を受ける人の名前:国立法務政策センター

免除対象者の住所:107パークワシントンコート、フォールズチャーチ、バージニア州 22046

 

書面による資料は、1934年の証券取引法に基づいて公布された規則14a-6 (g) (1) に従って提出されます。この申告者の提出は、規則の条項では義務付けられていませんが、公開とこれらの重要な問題の検討のために自発的に提出されます。

 

 

 

委任覚書

 

に: マイクロソフト社の株主

RE: 投票のケース にとって 2024年の代理投票に関する提案9(「AIデータソーシングの説明責任に関する報告書」)

 

これは代理人の選挙権を求めるものではありません。代理カードを送らないでください。国立法務政策センターは代理人に投票することができません。また、この通信ではそのような事態は想定されていません。NLPCは株主に提案9に投票するよう促しています 管理者の委任状に記載されている指示に従ってください。

 

次の情報は投資アドバイスとして解釈されるべきではありません。

 

写真のクレジットはレポートの最後に続きます。

 

国家法務政策センター(「NLPC」)は株主に投票を促していますマイクロソフト株式会社(「マイクロソフト」または「当社」)の2024年の代理投票で提案されている提案9です。提案の「解決済み」条項には次のように記載されています。

 

株主は会社に、専有情報や法的に特権のある情報を省いた報告書を年次総会から1年以内に公開し、その後は毎年更新するように会社に求めています。この報告書は、外部の実際のまたは潜在的な非倫理的または不適切な使用によってもたらされる、会社の運営と財務、および公共の福祉に対するリスクを評価します。


1


人工知能製品の開発とトレーニングに関するデータ、それらのリスクを軽減するために当社が取っている措置、およびそのような取り組みの有効性を測定する方法に関するデータ。

 

 

はじめに

 

人工知能(AI)は、産業を変革し、ビジネス慣行に革命をもたらし、個人や政府がテクノロジーに取り組む方法に影響を与える、近代史上最も変革をもたらしたイノベーションの1つです。ヘルスケアから金融サービスまですべてを改善するAIの可能性は否定できませんが、大きなリスクが伴います。マイクロソフトは、AIに多額の投資を行っていますが、プライバシーを中心とした強力なポリシーを採用することで、信頼できるリーダーとして際立つことができるという極めて重要な岐路に立っています。

 

 

データはAIの生命線です。機械学習モデルでは、時間をかけて学習し、適応させ、パフォーマンスを向上させるために、膨大なデータセットが必要です。この飽くなきデータへの渇望から、開発者はインターネットやその他のデジタルソースを介して大量の情報を探すようになり、その一部は非倫理的または違法に入手される可能性があります。AIモデルには、人間の行動、音声、画像、その他の機密コンテンツに関するデータが組み込まれている場合があり、その開発と展開がプライバシー上の懸念事項になります。

 

AIが成熟するにつれて、AIデータ倫理に対する一般の認識も高まります。消費者、規制当局、政府は、AI開発者がモデルのトレーニングに使用するデータをどこで入手するかについて、ますます厳しい質問をするようになっています。データスクレイピング、不正収集、独占的または著作権で保護されたコンテンツを許可なく使用することは、AI倫理をめぐる議論の焦点となっています。適切な内部チェックとバランスが取れていないと、マイクロソフトのAI開発はデータプライバシー法に違反したり、知的財産権を侵害したり、同意なしに個人情報を利用したりする可能性があります。

 

提案書で要求されたレポートは、AI開発におけるユーザーデータの倫理的使用に関するマイクロソフトの戦略の開示を改善することにより、株主価値を高めるでしょう。このレポートは、マイクロソフトがより野心的なプライバシー保護の姿勢をとるよう促すことを目的としています。これにより、マイクロソフトは強力な競争上の優位性を得ることができます。

 

AI開発においてマイクロソフトが直面しているプライバシーと倫理的課題

 

マイクロソフトは、主にOpenAIとのパートナーシップのおかげで、AI分野のトッププレーヤーです。当社の立場は、責任あるAI開発への期待を定義するプラットフォームを提供します。


2


マイクロソフトのAIモデルを支えるデータ収集慣行は、倫理的な懸念を引き起こします。提案書に記載されているように、これらには当社とOpenAIとのパートナーシップが含まれます。1 米国情報機関との関係、2 3 著作権侵害、4 と疑わしいプライバシー機能。5 6

 

マイクロソフトの組織規模、範囲、影響力 — 当社は時価総額で世界最大級です。7 収入、8 と人員数9 — 不信感を招きます。マイクロソフトが業界の他の有力者や連邦政府との関係によって、世間の監視はさらに強化されます。

 

たとえば、なぜマイクロソフトとアップルの両方がOpenAIの取締役会の特別議席を与えられたのですか?彼らは競争相手ではありませんか?2人のライバルは、独占禁止法の懸念が提起されて初めて議席を落としました。10

 

 

マイクロソフトとOpenAIのパートナーシップは、他の問題を提起します。OpenAIは、同意なしにデータをスクレイピングするなど、非倫理的なデータ収集慣行に関する複数の申し立てに直面しています。報告によると、OpenAIは、データ所有者に通知したり許可を得たりせずに、膨大な量の個人情報、著作権で保護された情報、専有情報をAIモデルに組み込んでいます。このような慣行は、注目を集める訴訟を含む法的措置につながりました ニューヨークタイムズ 過剰疑惑

著作権侵害。最後に、国家安全保障局の元局長であったポール・ナカソネは、現在OpenAIの理事会のメンバーです。在職中、彼は監視権限の拡大を更新することを推進しました11 9/11以降にNSAに授与されました。それ以来、NSAは国家安全保障機構の政敵をスパイするために悪用されてきました。12

 

中曽根がOpenAIの取締役会に任命されたことで、AI開発に対する政府の干渉、およびマイクロソフトと連邦政府との広範な関係という、より広範な問題が提起されます。マイクロソフトは収益のかなりの部分を政府との契約から得ています。連邦政府はITとソフトウェアの契約に100億ドルから150億ドルを費やしています


1 https://www.businessinsider.com/openai-chatgpt-generative-ai-stole-personal-data-lawsuit-children-medical-2023-6

2 https://www.foxbusiness.com/politics/us-spies-use-secretive-ai-service-from-microsoft

3 https://www.newsweek.com/edward-snowden-open-ai-nsa-warning-1913173

4 https://www.reuters.com/legal/transactional/ny-times-sues-openai-microsoft-infringing-copyrighted-work-2023-12-27/

5 https://time.com/6980911/microsoft-copilot-recall-ai-features-privacy-concerns/

6 https://www.theverge.com/2024/6/7/24173499/microsoft-windows-recall-response-security-concerns

7 https://companiesmarketcap.com/

8 https://companiesmarketcap.com/largest-companies-by-revenue/

9 https://companiesmarketcap.com/largest-companies-by-number-of-employees/

10 https://www.theguardian.com/technology/article/2024/jul/10/microsoft-drops-observer-seat-on-openai-board-amid-regulator-scrutiny

11 https://www.cbsnews.com/news/nsa-director-us-surveillance-power-paul-nakasone/

12 https://apnews.com/article/election-2020-b9b3c7ef398d00d5dfee9170d66cefec


3


サービス。13 これらの契約ではマイクロソフトが市場を支配しています。14 競争入札プロセスなしで25〜30パーセントを獲得しました。「つまり、マークアップされている可能性が高いということです。」15 連邦政府は言論の自由を制御する目的でAI配信の統制を図ろうとしているので、16 政府が譲歩を得るためのレバレッジとしてマイクロソフトの契約を利用し、事実上、国益を持つ世界最大の企業の1つを巻き込む可能性は十分にあります。たとえば、「Twitterファイル」から、FBIとCIAは、イーロン・マスクに買収される前は、「誤った情報」と見なされる投稿やアカウントにフラグを立て、削除を勧めることで、Twitterのコンテンツ管理に大きな役割を果たしていたことが明らかになりました。17 株主も市民も、米国の諜報機関が主要なAI開発者と同様の取り組みを試みていることを懸念すべきです。彼らのツールは、グローバルな言説を形作る力ゆえに、最終的にはソーシャルメディアを上回る可能性があります。

 

マイクロソフトの計り知れない権力は、連邦政府との緊密な関係と相まって、アメリカ社会やその他の地域における個人の自由に対する重大な脅威となっています。この2つを合わせると、マイクロソフトのプラットフォーム、製品、サービスを通じて、何百万人もの市民の個人情報にかつてないほどアクセスできるようになりました。個人情報がますます商品として扱われるビッグデータの時代において、この関係は大量監視やプライバシーの侵害の可能性についての危険信号を浮き彫りにしています。

 

さらに、マイクロソフトのAIツールとテクノロジーが公共インフラにますます組み込まれるにつれて、18 マイクロソフトと国家安全保障国家の境界線はますます曖昧になっています。19 反対意見の監視であれ、表現の自由の制限であれ、市民の追跡であれ、これらの技術が統制のツールとして使用される可能性は否定できません。この文脈では、マイクロソフトのAI開発は単に技術の進歩だけではありません。さらに重要なのは、個人の自由を犠牲にしても、政府の利益に同調する意欲を示した企業の手に渡って、監視力が抑制されずに成長していることです。

 

さらに、マイクロソフトのアルゴリズムは秘密です。これらのシステムが日常生活にますます統合され、ローンの承認から雇用までの意思決定を形作るにつれて、内部の仕組みに関する透明性の欠如は重大な倫理的リスクをもたらします。

 

AI開発の中心となるのは、膨大なデータセットに基づいて予測を行い、パターンを検出し、アクションを推奨する機械学習アルゴリズムです。これらのアルゴリズムがどのように特定の変数を比較検討し、特定の結果に優先順位を付け、決定を下すかは、しばしば「ブラックボックス」に隠されています。この透明性の欠如は、技術的な問題にとどまらず、説明責任、信頼、公平性に関する根本的な疑問を投げかけています。これらのアルゴリズムが医療診断などの重要な分野で使用されるとしたら20 または刑事司法リスク評価、21 結果には次のものが含まれる可能性があります


13 https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

14 https://ccianet.org/news/2021/09/new-study-shows-microsoft-holds-85-market-share-in-u-s-public-sector-productivity-software/

15 https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/

16 https://www.csis.org/analysis/distrust-everything-misinformation-and-ai

17 https://nypost.com/2022/12/24/latest-batch-of-twitter-files-shows-cia-fbi-involved-in-content-moderation/

18 https://wwps.microsoft.com/blog/ai-public-sector

19 https://theintercept.com/2024/10/25/africom-microsoft-openai-military/

20 https://www.forbes.com/sites/saibala/2023/01/23/microsoft-is-aggressively-investing-in-healthcare-ai/

21 https://counciloncj.org/the-implications-of-ai-for-criminal-justice/


4


不公平な結果、あるいは人生を変えるような過ちさえあります。マイクロソフトにとって、この不透明性は専有情報や知的財産を保護するかもしれませんが、最終的には、会社が透明性や説明責任よりも利益や競争上の優位性を重視しているかどうかという疑問が生じます。

 

これに応えて、市民と消費者はデータプライバシー保護の強化を求め始めています。議論の中心となるのは、個人情報、行動パターン、デジタルコンテンツなど、ユーザーが生成したデータを本当に「所有」しているのは誰か、そしてデータの使用、保存、共有の方法について個人がどのような権利を持っているかということです。22 このような期待の高まりは、特に人工知能(AI)システムのトレーニングと改良のために膨大な量のデータを収集する中で、MicrosoftやOpenAIのような企業にとって課題となっています。

 

 

欧州連合は、2018年に制定された一般データ保護規則(GDPR)を通じて、より強力なデータ権利を推進する世界的リーダーとして台頭しました。23 GDPRは、企業がEU市民のために個人データを収集、処理、保存する方法を根本的に変える、地球上で最も包括的なデータプライバシー法の1つです。これにより、個人情報へのアクセス、修正、削除の権利、データの使用方法について知らされる権利など、個人が自分のデータをより細かく管理できるようになります。GDPRは、コンプライアンス違反に対して厳しい罰則を科し、企業の世界の年間収益の最大4パーセントに達する罰金を科すことで、企業が透明性、説明責任、ユーザー管理の原則を遵守する強力なインセンティブとなっています。世界規模で事業を展開するマイクロソフトのような企業にとって、GDPRはデータ倫理の重要性を高めています。

 

米国では、データプライバシー法は伝統的にEUの法律ほど厳格ではなく、GDPRのような包括的な連邦データプライバシー法はありませんでした。しかし、この状況は変化しています。プライバシー保護の必要性に対する認識の高まりを反映して、州は独自のデータ保護規制を採用し始めています。たとえば、カリフォルニア州は2020年にカリフォルニア州消費者プライバシー法(CCPA)を制定しました。24 どのような個人情報が収集されているかを知る権利、その情報を削除する権利、販売をオプトアウトする権利など、GDPRに基づく権利と同様の権利を居住者に与えます。

 

データプライバシーの動きは他の州でも勢いを増しており、マイクロソフトのような企業が対処しなければならない州レベルの規制がばらばらばらになっています。データプライバシーに関するこれらの新たな期待は、アメリカ人がデジタル情報を管理する権利をますます要求するにつれて、データ所有権に対する国民の態度が変化していることを示しています。

 


22 https://www2.deloitte.com/us/en/insights/topics/digital-transformation/data-ownership-protection-privacy-issues.html

23 https://gdpr-info.eu/

24 https://oag.ca.gov/privacy/ccpa


5


 

が提起した前述の訴訟 ニューヨークタイムズ Microsoftに対して、OpenAIは、データ所有権に関する期待の変化が法的課題とどのように交差するかを示す注目度の高い例となっています。その タイムズ は、OpenAIが許可や補償なしにAIモデルをトレーニングするために著作権で保護されたコンテンツをスクレイピングし、知的財産権を侵害していると非難しています。25 もし タイムズ 訴訟が成功すれば、特に専有コンテンツや著作権で保護されたコンテンツが含まれる場合、データスクレイピングにさらに厳しい制限を課す先例となる可能性があります。これは次のようになります

MicrosoftとOpenAIには、データソースからの許可を得るか、データセットを再検討しなければならないという追加のハードルがあります。

 

マイクロソフトは、現在の慣行を継続することで、株主価値を損ない、評判を傷つける可能性のある訴訟や規制措置に巻き込まれるリスクがあります。さらに、消費者がプライバシーを意識するようになるにつれて、データの権利を尊重するという真のコミットメントを示す企業を支援することを選択するかもしれません。

 

プライバシーリーダーシップによる株主価値の向上と競争上の優位性の構築

 

消費者は一貫して、自分の個人データを管理できないことに懸念を表明しています。26 マッキンゼー・アンド・カンパニーは、データプライバシーを優先する企業は、そうでない競合他社よりも競争上の優位性を築くと主張しています。27

 

消費者がデータ共有にますます慎重になり、規制当局がプライバシー要件を強化するにつれて、大手企業はデータ保護とプライバシーがビジネス上の優位性を生み出すことができることを学び始めています。

 

全体的な信頼度が低いことを考えると、消費者が企業と共有するデータの種類を制限したいと思うことが多いのは当然のことです。クッキーブロッカーが組み込まれたウェブブラウザー、広告ブロックソフトウェア(世界中の60000万台以上のデバイスで使用)、シークレットブラウザ(世界中のインターネットユーザーの40%以上が使用)など、多くのプライバシーツールが利用できるようになったため、消費者は個人情報をより細かく管理できるようになりました。しかし、ヘルスケアや資金管理など、製品やサービスの提供が消費者にとって非常に重要である場合、多くの人はプライバシーの懸念を脇に置いても構わないと思っています。

 


25 https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html

26 https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/

27 https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-consumer-data-opportunity-and-the-privacy-imperative


6


消費者は、自分たちがそれほど重要ではないと考える取引のデータを共有することを望んでいません。彼らは「自分の足で投票」して、データプライバシー慣行が信頼できない、同意しない、または理解できない企業との取引をやめることさえあります。

 

著者はこう付け加えます:

 

私たちの調査によると、私たちのサンプルである消費者は、企業がデータを処理し、プライバシーを保護することをまったく信頼していないことがわかりました。したがって、企業はこの分野で意図的かつ積極的な対策を講じることで差別化を図ることができます。私たちの経験では、消費者は自分たちと同じくらい慎重に個人データを扱う企業に反応します。

 

このレポートは、データプライバシーへの懸念が高まるにつれ、消費者が倫理的なデータ処理と透明性を優先する企業を好むようになっているという現実を浮き彫りにしています。これは、透明でプライバシーを重視した企業が、信頼が最優先の市場で戦略的優位に立つという現実を浮き彫りにしています。

 

データ所有権に対する期待の変化は、マイクロソフトが透明で同意主導型のデータ慣行を採用することで、倫理的なAIのリーダーとしての地位を確立する機会となっています。このような変化は、マイクロソフトが法的問題を回避するのに役立つだけでなく、消費者の信頼を築き、個人が自分のデータを管理する権利を優先するグローバルスタンダードに会社を一致させることにもなります。

 

マイクロソフトにとって、これは透明でプライバシーを尊重するAIプラクティスが顧客ロイヤルティを促進し、解約率を減らすことができることを意味します。多くの場合、既存の顧客を維持する方が新しい顧客を獲得するよりも大幅に費用がかからないため、顧客維持の経済的メリットは十分に文書化されています。

 

さらに、プライバシー中心のアプローチは、個人を搾取するのではなく、個人に力を与えるテクノロジーを提唱する「テクノオプティミズム」運動の高まりと一致しています。ベンチャーキャピタリストのマーク・アンドリーセンなど、この運動の擁護者たちは28 テクノロジーは権力を分散させ、透明性を高め、ユーザーに力を与えるべきだと主張します。これらの価値観を支持することで、マイクロソフトは、テクノロジーを企業統制ではなく個人のエンパワーメントのツールと見なすユーザー層を増やすことができます。この連携は、消費者を引き付けるだけでなく、一般の認識にも影響を及ぼし、マイクロソフトを倫理的AIのリーダーとして位置付けるでしょう。

 

最後に、プライバシーと透明性を重視することで、規制上の反発や法的問題に対するマイクロソフトの脆弱性を減らすことができます。世界中でより厳しいデータプライバシー規制が出現し、次のようなケースでは ニューヨークタイムズ 非倫理的なデータ慣行のリスクが浮き彫りになったOpenAIに対する訴訟では、マイクロソフトは透明性の高い基準を設定することでリスクを先制的に軽減できます。

 

Apple、Meta、Alphabet、Anthropicなどのマイクロソフトの競合他社は、その価値観、ビジネスモデル、戦略的目標を反映して、プライバシーに対するアプローチが大きく異なります。


28 https://a16z.com/the-techno-optimist-manifesto/


7


各企業がプライバシーをどのように扱っているかを理解することで、AIの倫理、透明性、消費者の信頼というより広い視野についての洞察が得られます。

 

アップル

 

Appleは、主にAIに焦点を当てているわけではありませんが、ユーザーのプライバシー保護を優先事項として強調しています。29 MetaやAlphabetとは異なり、Appleの主要なビジネスモデルは広告に依存しないため、収益モデルを損なうことなくユーザーのプライバシーを強化できます。Appleによると、SiriのようなAI主導の製品は、データ収集を最小限に抑え、個人情報に対するユーザーの管理を促進するデバイス上の処理など、プライバシーを強化するテクノロジーを使用して設計されているという。

 

 

Appleはプライバシーに重点を置いているため、プライバシーを重視する消費者にさらなる保証が提供され、忠実なユーザーベースを維持できるようになり、同社に競争上の優位性がもたらされました。

 

メタ

 

Metaは、データプライバシーの問題、特にユーザーデータがターゲット広告アルゴリズムにどのように影響するかについて、精査されています。30 31 しかし、近年、MetaはAI研究の透明性を高めることに向けて進歩を遂げました。オープンソースのLlama AIツールのリリースは、その新しい方向性の証であり、透明でアクセスしやすいAI開発に貢献したいという意欲を示しています。LlamaのようなオープンソースのAIモデルでは、研究者や開発者がコードを調べたり変更したりできるため、透明性が高まります。

 

このオープンソースへの移行にもかかわらず、Metaは広告収入をユーザーデータに依存しているため、プライバシーに関する懸念は残っています。MetaのAIアルゴリズムは、個人データを幅広く活用してターゲットを絞った広告を生成します。32 オープンソースへの取り組みが、同社の最も価値があり機密性の高いデータ主導型アルゴリズムにまで及ぶかどうかという懸念が生じます。ケンブリッジ・アナリティカのスキャンダルを含め、メタが近年世間の監視に直面しています。33 信頼にも影響しています。Llamaをオープンソース化することで透明性が高まるかもしれませんが、Metaのプライバシー改善が十分であるかどうかについては疑問が残ります。


29 https://www.cnbc.com/2021/06/07/apple-is-turning-privacy-into-a-business-advantage.html

30 https://www.theguardian.com/technology/2023/jul/11/threads-app-privacy-user-data-meta-policy

31 https://www.nytimes.com/2023/05/22/business/meta-facebook-eu-privacy-fine.html

32 https://www.reuters.com/technology/meta-gets-11-eu-complaints-over-use-personal-data-train-ai-models-2024-06-06/

33 https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html


8


 

アルファベット順

 

Alphabetは、子会社のGoogleを通じて、膨大なデータリソースを検索エンジンや音声アシスタントなどのサービスに活用し、AIの分野で強力な地位を占めています。34 しかし、そのデータ慣行は広告収入と深く結びついており、プライバシーよりもユーザーデータ収集を優先しているという批判が一貫して寄せられています。35 Alphabetのターゲット広告の広範囲にわたるデータ追跡は、プライバシーの懸念を繰り返し引き起こしており、特にEUのGDPRの下では、データ使用の透明性の欠如を理由に多額の罰金が科せられています。「自動削除」オプションなどの機能を実装し、データを一元化されたデータベースではなくデバイスに保存するフェデレーテッドラーニングを試していますが、これらの対策は範囲が限られており、基本的というよりは事後対応的であるように見えます。

 

位置情報サービスがオフのときでもユーザーの位置データを追跡するような事件が発生すると、Alphabetの評判はさらに損なわれます。36 公共のプライバシーに関する取り組みと現実世界の慣行との間に矛盾があることを強調しています。Alphabetは、データの最小化を優先するAppleのような企業とは対照的に、Alphabetはユーザーのプライバシーを広告主導型ビジネスの二の次として扱っていると批評家たちは主張しています。プライバシーへの期待が高まるにつれ、Alphabetの広範なデータ収集への依存は、透明性とデータ主権に対する消費者の要求とますます矛盾し、最終的にはそのアプローチの持続可能性に課題をもたらす可能性があります。

 

アンソロピック

 

OpenAIの元従業員によって設立されたAI研究所であるAnthropicは、「調整」とAIの安全性を専門とする企業としての地位を確立しています。その主な使命は、迅速な導入よりも安全と倫理を優先し、人間の利益に沿ったAIシステムを開発することです。37 Anthropicはマイクロソフト、メタ、アルファベットよりも規模は小さいですが、長期的なAIの安全性に重点を置いているため、プライバシーに関する話題では重要な存在です。38

 

AnthropicはAIの振る舞いの透明性を重視しており、厳格なテストなしにモデルを商用アプリケーションに展開することには慎重です。Anthropicのアプローチは、MicrosoftやMetaのようにプライバシーを特に優先しているわけではありませんが、安全性、連携、倫理的懸念に重点を置いていることが、プライバシーを意識したフレームワークを間接的にサポートしています。導入時の透明性と慎重さを促進することで、Anthropicは、責任あるユーザー中心のAIプラクティスのために急速な成長を犠牲にしても構わないと思っている組織としての地位を確立しています。

 

Anthropicはまだ比較的新しいことを考えると、まだ規制や世間の厳しい監視を受けていません。しかし、その基本原則は倫理的慣行への取り組みを示唆しており、プライバシーへの期待が高まるにつれて競争上の優位性をもたらす可能性があります。

 

マイクロソフト、メタ、アルファベット、アンソロピック、アップルはそれぞれ異なるビジネスモデルと消費者の期待を反映して、プライバシーへの取り組みが異なります。マイクロソフトとアップルはプライバシーを競争上の優位性として宣伝していますが、AlphabetとMetaは以下に依存しているため課題に直面しています


34 https://www.thestreet.com/investing/stocks/analyst-update-alphabet-stock-price-target-after-ai-event

35 https://www.bloomberg.com/news/articles/2022-02-28/all-the-ways-google-is-coming-under-fire-over-privacy-quicktake

36 https://time.com/6209991/apps-collecting-personal-data/

37 https://www.anthropic.com/

38 https://etc.cuit.columbia.edu/news/ai-community-practice-hosts-anthropic-explore-claude-ai-enterprise


9


広告収入。Anthropicは、長期的な安全性と倫理的連携に重点を置いているため、特にAIが進化し続ける中で、プライバシーに関する議論において明確な役割を果たしています。プライバシーに対する消費者の需要が高まるにつれ、これらのさまざまなアプローチが、各企業の責任あるAIへの取り組みに対する一般の認識を形作るでしょう。

 

どういうわけか、マイクロソフトの競合他社はそれぞれ、品質とプライバシーの両方のリーダーとしてAI業界で支配的な地位を獲得することを妨げています。プライバシー中心の強いスタンスをとることで、マイクロソフトは競合他社と一線を画し、現代の価値観に沿うことができ、消費者の信頼と株主価値の両方を強化することができます。

 

マイクロソフトにとって経済的利益は計り知れません。その ニューヨークタイムズ 訴訟だけでも数十億ドルに上る可能性があり、GDPRやCCPAに違反した場合の罰則も同様です。しかし、もっと重要な問題は、ジェネレーティブAI市場が2032年までに1.3兆ドルに達する可能性があるということです。39 そして、市場シェアのわずかな変化でも数百億ドルの価値があります。マイクロソフトの競争は激しすぎて、データ倫理とプライバシーを真剣に受け止めなければ、大企業にとって見返りとなる可能性があります。

 

結論

 

マイクロソフトは、プライバシーと倫理的なAIを優先することで、消費者の信頼が不可欠な業界での差別化を図ることができます。規制圧力が高まり、国民の期待がデータの透明性と管理にシフトするにつれて、マイクロソフトの責任あるAIへの取り組みは、評判を守るだけでなく、株主価値を高めることにもなります。プライバシー第一のアプローチを採用することで、マイクロソフトは消費者価値と社会的価値の両方に即した倫理的技術のリーダーとしての地位を確立します。この戦略的転換は、マイクロソフトが持続可能な競争上の優位性を獲得し、長期的な成長を促進し、業界全体にプラスの影響を与えるのに役立ちます。これらの理由から、私たちは株主に提案9を支持するよう強く勧めます。40

 

 

写真クレジット:

2ページ — マイクロソフトビル、ケルン、ドイツ/RawPixel.com(クリエイティブ・コモンズ)

3ページ — ポール・ナカソネ/INSAイベント、クリエイティブ・コモンズ

5ページ — OpenAI グラフィック/フォーカル 5、クリエイティブ・コモンズ

6ページ — ニューヨークタイムズ本社/ジェソハックベリー、クリエイティブ・コモンズ

8ページ — iPhone/YouTubeのスクリーングラブ

 

前述の情報は、電話、郵便、電子メール、特定のウェブサイト、特定のソーシャルメディアを通じて株主に広める場合がありますが、投資アドバイスや代理投票権の勧誘として解釈されるべきではありません。

 


39 https://www.bloomberg.com/company/press/generative-ai-to-become-a-1-3-trillion-market-by-2032-research-finds/

40 https://view.officeapps.live.com/op/view.aspx?src=https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/2024_Proxy_Statement


10


上記の情報を株主に広めるための費用は、すべて申告者が負担します。

 

ここに含まれる情報は、信頼できると思われる情報源から作成されたものですが、その適時性や正確性について当社が保証するものではなく、入手可能なすべてのデータを完全にまとめたものではありません。この記事は情報提供を目的としており、調査レポートとして解釈すべきではありません。

 

代理カードは受け付けません。プロキシを私たちに送らないでください。代理人に投票するには、代理カードの指示に従ってください。

 

ナショナル・リーガル・アンド・ポリシー・センターが提出した「AIデータソーシングの説明責任に関する報告書」の作成を取締役会に求めるマイクロソフト社の提案9に関する質問は、NLPCのコーポレート・インテグリティ・プロジェクトのアソシエイト・ディレクターであるLuke Perlotに電子メール(lperlot@nlpc.org)でお問い合わせください。


11