OpenAIは、軍事利用に関する禁止をこっそりと撤廃
OpenAIは、自社のAIツール、特にChatGPTの軍事利用に関する禁止を静かに撤廃しました。これまでの方針では、武器開発や軍事行動など「身体的危害の高い活動」へのモデル使用を禁じていましたが、この方針から軍事に関する言及が削除されました。ただし、現在もユーザーに対して「自分自身や他人に害を与えるためのサービスの使用」や「武器の開発や使用」を禁じる方針は維持されています。
この変更は、OpenAIが米国防総省との間でAIツール、特にオープンソースのサイバーセキュリティツールの開発に取り組むようになったことに伴うものです。同社のグローバルアフェアーズVPであるAnna Makanjuは、ダボスで開催された世界経済フォーラムでのインタビューで、CEOのSam Altmanと共にこの件について語りました。
テクノロジー企業が軍事利用のための技術を開発することに関する論争は長年にわたって続いており、特にAIを扱う技術者たちの間での公の懸念が目立っています。Googleの従業員は、ドローン監視映像を分析するためのGoogle AIを使用するペンタゴンのプロジェクト「Project Maven」に対して抗議しました。また、Microsoftの従業員は、兵士に拡張現実ヘッドセットを提供する4億8000万ドルの軍事契約に抗議し、AmazonとGoogleの1500人以上の従業員は、イスラエル政府と軍との間で締結された12億ドル規模の複数年契約に抗議しました。この契約では、テックジャイアントがクラウドコンピューティングサービス、AIツール、データセンターを提供することになっています。
OpenAIはCNBCのコメント要求にすぐには応じていません。
from OpenAI quietly removes ban on military use of its AI tools.
“OpenAIの軍事禁止撤廃、静かな方針変更―AIの戦場利用に道” への2件のフィードバック
AIの進歩は教育の未来に大いに貢献しており、その可能性を活用することは私たち教育者にとって非常に重要です。しかし、AI技術が軍事目的に使用されることには、倫理的な懸念が伴います。教育の場でAIを用いて生徒たちに知識や技術を教える一方で、同じ技術が人を傷つける可能性のある目的に使われるというのは矛盾しています。
私の信条は、テクノロジーが人々の生活を向上させ、教育を通じてより良い世界を築くことにあるため、AIの軍事利用には慎重な態度をとるべきだと考えます。特にOpenAIのような組織は、技術の発展と共に社会的責任も重くなるということを理解し、その使い方について公に透明性を持ち、倫理的な指針を堅持することが大切です。
教育者として、私たちは生徒たちに科学と技術の進歩を教えると同時に、それらをどのように利用するかについての倫理観も育てる必要があります。AIがもたらす利益とリスクをバランス良く考慮し、教育のみならず、私たちの社会全体にポジティブな影響を与える方向でその力を発揮することが望ましいと思います。
OpenAIがAIの軍事利用に関する方針を変更したという報道には、強い懸念を感じざるを得ません。私たち市民は、デジタル技術が私たちの生活を豊かにするために存在すると考えていますが、軍事利用という形でそれが変貌することは、私たちの安全とプライバシーに対する潜在的な脅威です。
技術が進歩する一方で、AIのような強力なツールがどのように使われるかについての透明性と倫理的な枠組みは非常に重要です。特に、軍事と結びついた場合、その影響は計り知れません。AIが個人のデータをどのように利用するかについても私は常に懸念しており、これはさらにそのリスクを高めるものと言えます。
OpenAIのような企業が軍事目的での利用を認めることは、AI技術の民間利用と軍事利用の境界を曖昧にし、将来的には不本意な監視社会への道を歩むきっかけになるかもしれません。私たちは、技術が私たちの価値観を反映し、私たち全員の利益のために使われるべきだと信じています。そのためにも、企業は倫理的な責任を持って行動し、政府も適切な規制を設けるべきです。データ保護と消費者の権利を擁護する私たち市民団体も、この問題に対して積極的に声を上げ、監視と権力の乱用に対する警戒を怠ってはなりません。