新ページへ移行しました。新しいページはこちらをクリックしてください。
Rimo Voiceでは要約機能や、手直し機能の実現にOpenAI社のChatGPTを利用しています。
ChatGPTに関する考え方は各社さまざまだと理解しており、一部の企業様はChatGPTの利用を禁止していることを把握しております。そのため、この利用を完全に排除するオプションもご用意してあります。
ただ、Rimo合同会社としてはChatGPTユーザーの皆様に享受していただきたいと強く思っております。そのため、Rimo Voiceを介してChatGPTを利用することに関するセキュリティ/法的側面のリスクをまとめ、可能な限り低減して提供しております。
たとえ、会社でChatGPT自体の利用を禁止していたとしても、Rimoを介した利用は改めて検討していただくことをお勧めいたします。
- 1. ChatGPTを利用することに関する一般的なリスクについて
- 2. 情報漏洩リスクへの対応
- 要点: Rimoを介したChatGPTの利用で、情報漏洩することはありません。
- 詳細解説
- 3. 著作権違反リスク
- 要点: 生成物に対して以下の2点に注意して取り扱いましょう。
- 詳細
- 4. それでもChatGPTの利用を控えたい場合
1. ChatGPTを利用することに関する一般的なリスクについて
ChatGPTを利用することに関する、企業が懸念しないといけない主要なリスクは、以下の二つが挙げられます。
- 情報漏洩リスク
- ChatGPT側に送付したデータが外部に漏洩してしまうリスク
- 著作権違反リスク
- ChatGPTを利用して作成した成果物が著作権を違反しているリスク
以降では、これらのリスクが極低いレベルに抑えられ、コントロール可能であることをお伝えしたいと思います。
2. 情報漏洩リスクへの対応
要点: Rimoを介したChatGPTの利用で、情報漏洩することはありません。
詳細解説
ChatGPTは2022年11月30日に公開され、日本で流行ってきたのは2023年の2,3月あたりでした。その頃に、社員がChatGPTに会社の機密情報を入れてしまい、それが学習に使われる構造になっていたため、情報漏洩にあたるというニュースが散見されるようになりました。
このような背景を受け、OpenAI側は2023年の3月にAPIを介しての利用(つまりRimoを介する利用)方法では、データは学習には使われないことが明記されるようになりました。また、Rimo合同会社はOpenAI社と2023/5/5付けで学習に使わないことを保証する覚書(Data Processing Agreement)を結んでおり、より厳密に保証されております。
また、2023年の5月ごろにはOpenAI側のセキュリティ管理体制もかなり整備されました。情報セキュリティの外部監査の中でも高水準なSOC2/3を批准している構造になりました。OpenAI側はさらに、送付されたデータを最大30日しか保管しないことも定めています。このため、セキュリティ面からも情報漏洩のリスクはかなり低く抑えられていると言えます。
これは言い換えると、OpenAIを利用したサービスは、AWS, Microsoft Azure, Google Cloud Platformなどのクラウドプラットフォームを利用したサービスと同様に考えられると言うことです。なので、会社でこれらのクラウドプラットフォームを利用したサービスの利用が認められている場合、OpenAIのChatGPTの利用も同じ理由で認められる可能性が高いことを表しています。
参考: 2023年6月時点での OpenAIセキュリティポータル https://trust.openai.com の内容
3. 著作権違反リスク
要点: 生成物に対して以下の2点に注意して取り扱いましょう。
- 意図的に既存著作物と類似のものを生成しないように注意する
- 偶発的に既存著作物と類似のものが生成された場合には社内で使用の可否を検討する
詳細
ChatGPTをはじめとした生成AIが生成したものの著作権をどう扱うかという話は、現在進行中で議論が進んでいますが、資料としては内閣府の以下の資料が1枚で簡潔に説明しています。
https://www8.cao.go.jp/cstp/ai/ai_team/3kai/shiryo.pdf
Rimoを利用する場合は、この中の右側にある生成・利用段階です。著作権の問題は、主には画像で問題になることが多いですが、文章に関しても同様に考えることができます。この部分で言われていることは以下の二つです。
- AIで生成したものでも、AIを用いないで作成したものと同様に著作権が考えられる
- 「類似性」と「依拠性」が認められれば著作権侵害として訴えられる可能性がある
2の「依拠性」に関しては「ピカチュウの画像を生成して」と伝えたり、「ピカチュウの元画像を元に新たな画像を作成」した場合などに依拠性が認められます。つまり意図的に著作物を利用した場合です。
なのでまとめると以下の二つに注意すればいいことになります。
- 意図的に既存著作物と類似のものを生成しないように注意する
- 偶発的に既存著作物と類似のものが生成された場合には社内で使用の可否を検討する
1. はRimoの場合は文章なので、以下のようなことをしないようにお気をつけください。
- 元の音源がそもそも他社の著作物であるものを利用して生成する
- 生成時に、著作者の名前や著作物の例をもとに生成する
- NGの例: このインタビューをもとに「村上春樹風」にまとめて
- NGの例: 外部のブログをコピーして「こんな風に」まとめて
2. も、基本的にRimoの利用時は独自の会議などの音源であることが想定されるので基本的には著作物と類似のものが出ることは考えづらいですが、もし懸念がある文章が生成された場合は、専門家に意見をもらい利用可否を検討してください。
4. それでもChatGPTの利用を控えたい場合
https://rimo.app/settings/summary にて、要約機能を利用するを以下の画面のようにオフにした状態でご利用ください。
関連リンク
セキュリティ対策について