AI を活用したコーディングエージェントは急速に浸透していますが、設定を誤るとソースコード管理システムに新たなセキュリティリスクが生じます。エージェントが GitHub などのバージョン管理システムと連携する典型パターンを整理し、プルリクエスト自動生成時に起こり得るPRの自己承認問題を示します。その上で、ブランチ保護やルールベースのゲートキーパーなど実践的なガードレールを紹介しながら、AI コーディングエージェントを安全に活用するメルカリでの取り組みを紹介します。