|
一般社団法人日本ディープラーニング協会(JDLA)は2026年2月3日、生成AIの業務利用において企業が直面しやすい法的課題を整理した「法と技術の検討委員会報告書 II - AI利用に関するユースケース -」を公開しました 。
多くの企業で「情報漏洩」や「著作権侵害」への懸念から、生成AIの利用が一律に禁止されたり、活用が進まない現状があります 。本報告書は、こうした過度な萎縮を解消し、現行法の枠組みの中で合理的にAIを活用するための判断基準を示しています 。 1. 個人データの入力は「一律禁止」する必要はない これまで多くの組織で「生成AIへの個人情報入力は禁止」というルールが設けられてきました。しかし本報告書では、技術的特性や契約条件(学習データに利用されない設定など)を踏まえれば、一定の条件下で個人データを入力することは個人情報保護法上、適法に行いうるとの見解を示しています 。 具体的には、Gemini、ChatGPT、Microsoft 365 Copilotといった代表的なサービスについても、適切な条件下であれば入力が可能であると整理されており、既存の社内ルールの再検討を促す内容となっています 。 2. 著作権侵害リスクは「生成物の確認」よりも「使い方」で低減する AI生成物が既存の著作権を侵害していないか、その全てを人の目で確認することは、AIの性能向上に伴い現実的ではなくなりつつあります 。 報告書では、事後的な生成物の確認に依存するのではなく、「生成AIの使い方(プロンプト設計など)」や「社内ルールの整備」といった利用プロセスに注力することこそが、著作権侵害リスクを相当程度低減させる合理的かつ実効性のある対策であると提言しています 。 3. 「恐れて使わない」から「賢く管理して使う」へ 本報告書は、生成AIを無条件に推奨するものでも、逆に一律に制限するものでもありません 。リスクを過度に恐れるのではなく、適切なガバナンスの下で生成AIを「道具」として使いこなすための指針となるものです 。 社内ガイドライン策定の重要な参考資料となるでしょう。 『法と技術の検討委員会報告書Ⅱー AI 利用に関するユースケースー』 https://www.jdla.org/about/lawtechcommittee/ Is the “Ban on Entering Personal Data into Generative AI” Up for Review? On February 3, 2026, the Japan Deep Learning Association (JDLA) released “Report of the Committee on Law and Technology II – Use Cases for AI Utilization”, which organizes the legal issues that companies commonly face when using generative AI in business operations. In many companies, concerns over information leakage and copyright infringement have led to blanket bans on generative AI or have significantly slowed its adoption. This report seeks to alleviate such excessive caution by presenting criteria for the rational use of AI within the framework of existing laws. 1. Entering personal data does not need to be “uniformly prohibited” Until now, many organizations have adopted rules stating that “inputting personal information into generative AI is prohibited.” However, the report explains that, depending on technical characteristics and contractual conditions (such as settings that prevent inputs from being used for training), entering personal data may be conducted lawfully under the Act on the Protection of Personal Information. Specifically, the report clarifies that even widely used services such as Gemini, ChatGPT, and Microsoft 365 Copilot may allow such inputs under appropriate conditions. This perspective encourages companies to reconsider their existing internal rules. 2. Copyright risk is reduced more effectively by “how AI is used” than by “checking outputs” As AI performance improves, it is becoming increasingly unrealistic to manually review all AI-generated outputs to confirm that they do not infringe existing copyrights. Rather than relying on ex post verification of generated content, the report recommends focusing on how generative AI is used—including prompt design—and on establishing internal usage rules. These measures are presented as rational and effective ways to significantly reduce copyright infringement risks. 3. From “not using AI out of fear” to “using it wisely through proper management” The report neither unconditionally promotes generative AI nor advocates for uniform restrictions. Instead, it offers guidance on how to manage risks appropriately and use generative AI effectively as a tool under proper governance. It will serve as an important reference when formulating internal corporate guidelines.
0 Comments
Leave a Reply. |
著者萬秀憲 アーカイブ
January 2026
カテゴリー |
RSS Feed