免責営業の通知
登録者の名前: microsoft corporation
免除を受けている人物の名前: アルジュナ キャピタル、オープンマイク
免除を受ける人の住所:アルジュナ キャピタル,13 Elm St. Manchester, MA 01944; Open MIC, 1012 Torney Avenue, San Francisco, CA 94129-1755.
書面資料添付の書面資料は、1934年の証券取引法(以下「法」)の下で公布された規則14a-6(g)(1)(以下「規則」)に基づき、登録者の2024年定時株主総会で投票される株主提案に関連して提出されました。*規則の条件下では、この申告者による提出は義務付けられていませんが、重要な問題の公開情報提供および検討のため、株主提案者が自発的に行っています。
10 月 30 日, 2024
マイクロソフト コーポレーションの株主の皆様へ、
私たちは、あなたにお願いしています PROPOSAL 8に"賛成"の投票をしてくださいプロキシカードで、マイクロソフトが提供する生成型人工知能(gAI)によって生成され、拡散される誤情報およびディスインフォメーションに関連するリスクについて報告し、これらのリスクを緩和する計画、およびそのような取り組みの効果について報告するよう求めるProposal 8に「賛成」の投票を株主にとって望ましいと考えています。以下の理由から、株主はProposalに「賛成」すべきです。
1. | gAIからの誤情報とディスインフォメーションは、深刻な経済的および社会的リスクをもたらします。世界経済フォーラムは、それを今後2年間で最も重大な globalリスクと位置付けています。 |
2. | マイクロソフトのgAIは、誤情報とディスインフォメーションを生成しやすいです。 |
3. | マイクロソフトのgAIによって生成される誤情報およびディスインフォメーションには、潜在的に法的、規制上、および評判上のリスクがあり、セクション230からの法的保護の不足が含まれます。 |
4. | マイクロソフトの現在の行動や報告は、この提案の懸念に対処していません。 |
提案8の拡大された根拠
この提案は以下のことを要求しています。
解決済み: 株主は、総会後1年以内に発行すべき報告書を提出するよう取締役会に要請し、合理的な費用で、特許権または法的特権を除外した情報を掲載し、毎年更新する。この報告書には、会社の運営および財務に対するリスク、および会社が人工知能を通じて流布または生成される誤情報およびディスインフォメーションを促進する役割によって公益に対するリスクがどのように評価され、それらの被害を修復するための会社の計画、およびそのような取り組みの効果が含まれる。
株主は、以下の理由から提案に賛成する必要があると考えています。
1. gAIからの誤情報とディスインフォメーションは、深刻な経済的および社会的リスクをもたらします。世界経済フォーラムは、それを次の2年間の最も重要なグローバルリスクとしてランク付けしています。
世界経済フォーラムは、誤情報およびディスインフォメーションをランク付けしました次の2年間で最も重要なグローバルリスクとしてユーラシアグループは、ガバナンスのない人工知能を第4位の最大のリスクとしてランク付けしました 2024年の第4位の最大のリスクとして.1 適切な技術的ガードレールが整備されていない場合、これらのリスクは悪意を持つ行為者がgAIの操作をより洗練されたものにしていくにつれて増大していきます
背景:ChatGPtからのgAIの最初の一般公開後、トップの人工知能専門家が、gAIが一般利用にはまだ準備ができておらず、危険性を示唆している強い警告を発した。2023年3月、何百人もの専門家が署名した公開書簡では、世界をリードする人工知能研究所に対し、強力な人工知能システムのトレーニングを6か月間中止するよう求めています。2これらの専門家は、gAIが適切に管理されない場合、“社会と人類に深刻なリスク”をもたらすと警告しています。2023年5月、OpenAIのCEOであるSam Altmanを含む500人以上の著名な学者や業界リーダーが、AI安全センターによる別個の声明に署名しました。その声明には、“人工知能による絶滅のリスクを軽減することは、パンデミックや核戦争などの社会規模のリスクと並んで、グローバルな優先事項であるべき”と宣言されています。3
テクノロジー業種、マイクロソフトを含む、これらの警告に耳を貸さなかった。過去2年間で、多くの専門家の不運な予測が現実化してきました。特筆すべきは、gAIの普及による、信憑性のある偽情報の生成コストの大幅な削減によるデマやディスインフォメーションの増加を目にしてきました。4この誤情報やディスインフォメーションの潜在的な害は、単なる誤算や誤った記述を超えています。
過去2年間、gAIを介して拡散され生成された誤情報やディスインフォメーションは、gAIが以下のようにできることを示しています。
· | 金融市場への影響: 経済学とビジネスのジャーナル 否定的な誤情報が株価に重大で短期的な影響を及ぼすことが判明しました。5 この潜在的な市場への影響は、特に懸念されます。というのも人工知能が信じられる誤情報を生み出す障壁を低下させています。2023年に実際に目にした時、Pentagonでの爆発を示すAIによる画像が株価を瞬時に下落させました。6 |
_____________________________
1 https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf; https://www.eurasiagroup.net/live-post/risk-4-ungoverned-ai-: ~: text=in%20a%20year%20、%20four%200mm%20人%20人、%20sow%20政治%20カオス%20on%20un%20前例のない%20スケールです。
2 https://futureoflife.org/open-letter/pause-giant-ai-experiments/
3 https://www.safe.ai/work/statement-on-ai-risk
4 http://www.theinformation.com/articles/what-to-do-about-misinformation-in-the-upcoming-election-cycle
5 https://www.sciencedirect.com/science/article/pii/S0148619523000231
6 https://www.theguardian.com/us-news/2023/jul/19/人工知能生成ディスインフォメーション米国選挙; https://www.business-humanrights.org/en/latest-news/米ビジネス人権: ペンタゴン爆発の偽の恐怖を広める
· | 選挙に影響を与える:過去1年間、gAIによって操作された動画、音声、写真が配布され、選挙結果に影響を与えようとしました。Freedom Houseは、16カ国がgAIを利用して疑念を持たせ、対抗馬を中傷し、オンラインでの公的論争に影響を与えたことがわかりました。7 また、独裁政権は、不利な政治、社会、宗教的な発言を削除するために機械学習を展開することで、オンライン検閲を強化するためにgAIモデルを使用していることがわかりました。8 別の研究によると、gAIチャットボットは、登録手順、投票日、および大統領候補情報を含む選挙情報を27%の割合で誤って提供していました。9 |
· | 情報エコシステムと公共機関全体の信頼を損なう gAIによるディスインフォメーションの拡散は、情報エコシステムにおける深刻な不信を蒔き、最終的には公共機関への信頼を減少させる可能性がある。アドビの調査によると、米国の回答者の84%がオンラインコンテンツが操作の脆弱性を抱えていると懸念し、選挙の公正さについても心配していると報告された。10そして、70%がオンライン情報が信頼できるかどうかを検証するのが難しいと考えています。11 gAIの広範な使用は、正確な選挙情報や広く公開されている公人への信頼を侵食する可能性があります。 |
gAIリスクは社会全体に脅威であり、 マイクロソフトとその投資家にも脅威です。 誤情報とディスインフォメーションが世論を操作し、偏見を増幅し、 機関の信頼を弱め、選挙を左右する能力は、民主主義と経済の安定を脅かします。 そして企業が社会と経済に害を及ぼすと、多角的なポートフォリオの価値はGDPと共に低下することがあります。12
While Microsoft may benefit in the short-term by rushing gAI technologies to market, it does so at the potential expense of its long-term financial health and diversified shareholders’ portfolios. It is in the best interest of shareholders for Microsoft to effectively mitigate mis- and disinformation, in order to protect the Company’s long-term financial health and ensure its investors do not internalize these costs.
2. | Microsoft’s gAI is susceptible to generating mis- and disinformation. |
It is clear that Microsoft is making big bets on gAI, as the Company has invested over $13 billion on this technology.13 Prior to the initial release of its gAI search engine, ethicists and Microsoft employees raised concerns about the technology’s readiness, including the possibility that it would “flood [social media] with disinformation, degrade critical thinking and erode the factual foundation of modern society.”14
_____________________________
7 https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence
8 Ibid.
9 https://www.nbcnews.com/tech/tech-news/ai-chatbots-got-questions-2024-election-wrong-27-time-study-finds-rcna155640
10 https://www.brennancenter.org/our-work/analysis-opinion/how-ai-puts-elections-risk-and-needed-safeguards
11 https://www.cnet.com/tech/services-and-software/generative-ai-muddies-the-election-2024-outlook-and-voters-are-worried/
12 See Universal Ownership: Why Environmental Externalities Matter to Institutional Investors, Appendix IV (demonstrating linear relationship between GDP and a diversified portfolio) available at https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; cf. https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-buffett-valuation-indicator (total market capitalization to GDP “is probably the best single measure of where valuations stand at any given moment”) (quoting Warren Buffet).
13 https://www.cnbc.com/2023/04/08/microsofts-complex-bet-on-openai-brings-potential-and-uncertainty.html?msockid=357d576b6d1461d208e5465b6914679a
14 https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html
Yet, Microsoft has continued to move forward, recently committing to invest another $30 billion in gAI alongside BlackRock.15 Despite these large investments, Microsoft still struggles to control mis- and disinformation generated and disseminated via its gAI:
· | Copilot repeated misinformation that there would be a 1- to 2-minute delay in June’s CNN election debate broadcast, contributing to conspiracies that the candidates’ election performance could be edited by the network.16 |
· | Microsoft’s Image Creator generated false photos of individuals tampering with US ballots and ballot boxes that could be used to foster election mistrust.17 |
· | One study found that Copilot only offered scientifically accurate answers to medical questions 54% of the time.18 |
· | Microsoft’s MyCity Chatbot provided misleading information to NYC entrepreneurs that suggested they could exploit workers’ tips and discriminate based on income sources.19 |
· | Copilot referenced debunked research promoting the idea that white people are genetically superior to nonwhite people when queried about IQ scores in various countries.20 |
As illustrated, Microsoft’s gAI remains a work in progress. Given the severity of the risks, the Company must do more to control these vulnerabilities.
3. | Mis- and disinformation generated via Microsoft’s gAI present legal, regulatory, and reputational risks, including a potential lack of legal protection from Section 230. |
Microsoft faces legal, regulatory, and reputational risks in the short-term that may financially impact the Company.
· | Legal Risk: Legal experts are questioning who will ultimately be held responsible for mis- and disinformation generated by gAI. Because the Company's gAI technology can be the origin of mis- and disinformation, there is no guarantee that Section 230 will continue to protect companies from litigation as a result of misinformation and disinformation on their platforms. This may make Microsoft vulnerable to future legal scrutiny. |
_____________________________
15 https://www.techradar.com/pro/microsoft-and-blackrock-team-up-on-30-billion-ai-investment
16 https://www.nbcnews.com/tech/internet/openai-chatgpt-microsoft-copilot-fallse-claim-presidential-debate-rcna159353
17 https://www.bbc.com/news/world-us-canada-68471253?utm_source=syndication
18 https://www.msn.com/en-us/news/technology/42-of-ai-answers-were-considered-to-lead-to-moderate-or-mild-harm-and-22-to-death-or-severe-harm-a-damning-research-
paper-suggests-that-bing-microsoft-copilot-ai-medical-advice-may-actually-kill-you/ar-AA1saa97?ocid=BingNewsVerp
19 https://www.analyticsinsight.net/artificial-intelligence/the-most-controversial-ai-decisions-in-recent-years
20 https://arstechnica.com/ai/2024/10/google-microsoft-and-perplexity-promote-scientific-racism-in-ai-search-results/
· | Regulatory Risk: Tech companies have faced an evolving regulatory landscape within the last year, with the EU AI Act leading the way in providing the first comprehensive set of rules for establishing guardrails for AI.21 The Algorithmic Accountability Act (AAA) has been introduced to the US Senate and would obligate the Federal Trade Commission to require entities to perform impact assessments of their AI systems.22 At the state-level, 19 states have passed laws to address deepfakes and other concerns of gAI.23 Microsoft must consider and prepare for additional, imminent AI reporting requirements. Furthermore, by fulfilling the requests of this Proposal and setting a robust example of best practice, Microsoft has an opportunity to constructively shape AI reporting frameworks. |
· | Reputational Risk: While Microsoft has invested significantly in its gAI, the technology’s lack of reliability and consistency has sowed significant mistrust amongst users.24 The Associated Press-NORC Center for Public Affairs Research and USAFacts found that two-thirds of U.S. adults are not at all confident in the reliability of generative AI. Only 12% believe that AI-search engines, including Copilot, produce results that are always or often based on facts.25 Microsoft must bridge this AI trust gap to ensure its technology is adopted by users. Negative press around mis- and disinformation from Microsoft’s technology has the potential to sow user distrust, slow adoption, and negatively impact stock value. We have already seen how negative press around gAI misinformation can impact a company’s stock performance.26 Microsoft must do what it can to mitigate reputational risks that sow mistrust in the company’s technology. |
4. | Microsoft’s current actions and reports do not address the concerns of this Proposal. |
In its opposition statement, Microsoft lists several reports and practices on responsible AI to obfuscate the need to fulfill this Proposal’s request. Yet, this Proposal is asking Microsoft for a report that goes beyond current and planned reporting. Current reporting, including the EU and Australian Codes of Practice on Disinformation and Misinformation, Responsible AI Standard and Principles, and its Responsible AI Transparency Report simply outline the Company’s commitments to ethical AI standards and frameworks. While the inaugural Responsible AI Transparency Report provides a deeper explanation of Microsoft’s approach to responsible AI, we are seeking reporting that goes beyond this and assesses how Microsoft’s principles and frameworks are actually working. The requested report would provide a comprehensive assessment of the risks associated with gAI so that the company can effectively mitigate these risks, and an evaluation of how effectively the Company tackles the risks identified.
_____________________________
21 https://www.techmonitor.ai/digital-economy/ai-and-automation/what-is-the-eu-ai-act?cf-view
22 https://www.jdsupra.com/legalnews/the-current-and-evolving-landscape-of-4080755/
23 https://www.esginvestor.net/keeping-up-with-ai/
24 https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2023/10/consumers-are-voicing-concerns-about-ai - foot2
25 https://apnews.com/article/ai-chatbots-misinformation-voting-election-2024-7131822c0f2ebe843b4c7e3cb111a3d3
26 https://www.npr.org/2023/02/09/1155650909/google-chatbot--error-bard-shares
As the risks of gAI are severe and broadly consequential, it’s crucial Microsoft transparently illustrates to shareholders that it has fully identified the risks and is evaluating its ability to address them effectively. We believe these steps will help to mitigate both short- and long-term Company risks and provide an appropriate accountability mechanism.
Conclusion
For the reasons provided above, we strongly urge you to support the Proposal. We believe a report on misinformation and disinformation risks, mitigation, and assessment related to generative AI will help ensure Microsoft is acting in the long-term best interest of shareholders.
Please contact Natasha Lamb at natasha@arjuna-capital.com or Michael Connor at mconnor@openmic.org for additional information.
Sincerely,
Natasha Lamb, Arjuna Capital
Michael Connor, Executive Director, Open MIC
This is not a solicitation of authority to vote your proxy. Please DO NOT send us your proxy card. Arjuna Capital and Open Mic are not able to vote your proxies, nor does this communication contemplate such an event. The proponent urges shareholders to vote for Proxy Item 8 following the instruction provided on the management’s proxy mailing.
The views expressed are those of the authors and Arjuna Capital and Open MIC as of the date referenced and are subject to change at any time based on market or other conditions. These views are not intended to be a forecast of future events or a guarantee of future results. These views may not be relied upon as investment advice. The information provided in this material should not be considered a recommendation to buy or sell any of the securities mentioned. It should not be assumed that investments in such securities have been or will be profitable. This piece is for informational purposes and should not be construed as a research report.