1. 企業ガバナンスの現場に入るAI
多くの企業で、AIは補助的なツールから、会議録の作成、財務報告の要約、サステナビリティ報告書の草案まで担う存在へと変化している。時間の短縮や効率化だけでなく、膨大な非構造化データの整理にも活用されている。生成AIの導入により、情報処理や報告書作成のスピードと品質は向上しているが、同時に新たな管理上のリスクも生まれている。内容の誤り、モデルの偏り、データ出所の不明確さなど、責任の所在が曖昧になる場面が増えている。
2. 内部統制とデータ信頼性の課題
生成AIの導入は、財務諸表やサステナビリティ開示の作成プロセスを変えつつあり、企業の内部統制や監査制度に新たな課題をもたらしている。AIの利用は効率を高める一方で、データ処理や報告書作成の過程に新しいリスクを生じさせる。これらのリスクは技術的な誤りにとどまらず、制度設計や責任の境界そのものを揺るがすものである。
- 責任の所在の不明確化:AIが生成した報告書に誤りや偏った計算、出所不明のデータが含まれる場合、誰が責任を負うのかを特定することが難しくなる。これは、追跡可能性と人による検証を重視する従来の内部統制制度を揺るがす。
- 内部統制への影響:生成AIの「ブラックボックス」的な性質により、会計士は結果がどのように導かれたのかを理解したり、その一貫性を検証したりすることが困難である。AIに報告書やリスク分析を自動生成させる場合、検証可能な統制点が欠け、責任の連鎖が不明瞭になる。
- データガバナンスと開示リスク:サステナビリティ報告やESG分析にAIを用いる際、無断利用データや偏った情報を参照する可能性があり、報告書の信頼性が損なわれる。将来的には、企業は開示結果だけでなく、データの生成および検証方法についても説明する必要がある。
- モデル監査の必要性:会計士は財務情報を確認するだけでなく、AIモデルの設計論理やデータソースの妥当性を評価することが求められ、監査の複雑性が増している。
こうしたリスクに対応するため、企業は制度設計、専門的支援、倫理的実践、国際的連携の各側面から具体的な取組みを進める必要がある。
- 制度設計の強化:企業は「AI利用規程」を内部統制の一部として正式に組み込み、モデル選定基準、訓練データの品質確認、出力結果の検証手順、誤り発生時の修正責任などを明確にすべきである。大企業はAI監督委員会を設置し、中小企業は外部の専門家を活用して、監視や監査の仕組みを導入する方法が考えられる。
- 専門的支援の拡充:会計事務所やコンサルティング会社は「AI保証サービス」を提供し、モデルリスク評価、データ検証、アルゴリズムの透明性レビューなどに業務を拡大できる。AIモデルの審査リストを作成し、データの適法性や生成過程の記録、結果の再現性を確認する取組みが有効である。
- 倫理と企業文化の強化:経営層は情報セキュリティと公正性を重視し、社内研修を通じてデータ倫理、モデルバイアス、透明な開示に関する理解を深める必要がある。AI利用ガイドラインを就業規則に組み込み、出典の明示や個人情報・顧客情報の入力禁止を定め、倫理を日常業務に根付かせる。
- 国際的取組みからの学び:日本のモデル監査や倫理審査制度の経験を参考に、台湾は透明で追跡可能なAI利用記録を早期に整備し、モデル監査、データ開示、リスク管理における国際連携を強化することで、より成熟したガバナンス体制を築くことができる。
3. 日本の制度対応と台湾の課題
- 日本の政策と企業の取組み:日本政府と産業界は、生成AIがガバナンスの透明性に与える影響を意識し始めている。経済産業省が2024年に公表した『生成AI活用ガイドブック』では、AI導入に際して説明可能性・追跡可能性・アカウンタビリティの確保を求め、リスク管理を担う内部体制の整備を推奨している。日立製作所や富士通などの大手企業は、AI倫理審査委員会を設置し、モデルリスク管理を内部統制に組み込んでいる。金融庁も、AIの活用がJ-SOX報告制度に与える影響について研究を始めている。日本ではこれまで、人間関係に基づく信頼と自律が重視されてきたが、現在はそれを制度として可視化し、検証可能な形へと移行しつつある。
- 台湾の現状と今後の方向性:台湾企業は財務のデジタル化やサステナ報告の自動化を進めているが、AIガバナンスはまだ初期段階にある。金融監督管理委員会や会計研究発展基金会がAI生成財務報告の適法性を検討しているが、具体的な指針はまだない。多くの企業ではAIを効率化の手段と捉え、ガバナンスの対象とは見なしていない。2026年にIFRS S1・S2が適用される予定であり、AI生成データの検証可能性が新たな課題となる。日本におけるモデル監査や倫理審査の仕組みは、台湾にとって参考となる。
4. 専門サービスと今後の方向性
- 制度設計の深化:企業がガバナンス構造の中にAIを取り込むためには、「AI利用規程」を正式に内部統制の一部として明文化する必要がある。これには、モデル選定の基準、訓練データの品質確認、出力結果の検証手続き、誤り発生時の修正責任などが含まれる。大企業はAI監督委員会や技術リスク管理チームを設置することができ、中小企業は外部コンサルタントの支援を活用して、基本的な監視および監査プロセスを導入する方法が考えられる。これらの取り組みにより、AIの利用履歴を記録し、技術のブラックボックス化によって生じる責任の空白を防ぐことができる。
- 専門家支援の拡大:生成AIの活用が広がる中で、会計事務所やコンサルティング会社は「AI保証サービス」の分野に参入し始めている。これらのサービスは従来の財務監査にとどまらず、モデルリスク評価、データ検証、アルゴリズムの透明性レビューなどにまで範囲を広げている。一部の事務所では、AIモデルの審査チェックリストを作成し、企業がデータの適法性、生成プロセスの記録、出力内容の再現性を確認できるよう支援している。こうしたサービスの登場により、企業は第三者の視点から自社システムを評価でき、報告情報に対する社会的信頼を高めることが可能となっている。
- 倫理と企業文化の更新:AIガバナンスは最終的に企業文化に依存する。経営層が効率のみを重視し、情報セキュリティや公正性を軽視する場合、どんなに整備された制度であっても長期的には機能しにくい。企業は社内教育や研修を通じて、データ倫理、モデルバイアス、情報開示の透明性に関する理解を深めることから始めることができる。日本の一部企業では、従業員規則にAI利用ガイドラインを組み込み、生成された内容に出典を明示することや、個人情報や顧客情報の入力を禁止することを定めている。これらの取り組みにより、倫理は単なる宣言にとどまらず、日常の業務に根付いた実践へと変わりつつある。
5. 技術を責任の枠組みに戻す
日本と台湾のAIガバナンスは、異なる方向に進みながらも補完的な関係にある。日本は政策による指導と産業界の自律を通じて制度的な基盤を築いており、台湾は基準や監査制度を早期に導入することで、国際的なサステナビリティ報告の要件に遅れず対応できる。生成AIの普及は企業ガバナンスの基盤そのものを変えつつあり、技術の発展の中で信頼を維持できるかどうかは、制度設計と倫理原則のあり方にかかっている。AI技術が意思決定、報告、監査のプロセスに徐々に取り込まれる中で、企業はその利用方法と責任範囲をより明確に定める必要がある。そうでなければ、効率性の向上と引き換えに新たなガバナンスリスクを抱えることになる。日本は制度の柔軟性をどのように保つかが課題であり、台湾は透明で追跡可能な利用記録を早期に整備することが求められる。両国がモデル監査、データ開示、リスク管理の分野で経験を共有できれば、より成熟したガバナンスモデルの構築につながるだろう。AIの登場により、企業ガバナンスは新しい理解の段階に入っている。技術が制度の枠組みに組み込まれ、継続的に検証されることで、AIはリスクの要因ではなく、ガバナンスの一部として機能するようになる。
関連記事:AIの波の中で日台企業協力が直面する新たな課題