Back to Skills

executing-ai-development-workflow

camoneart
Updated Today
26 views
2
2
View on GitHub
Metaaiautomation

About

This skill automates a comprehensive AI development workflow with structured planning, implementation, and a multi-layer review system using Sub-agents, Claude Code's `/review`, and CodeRabbit CLI. It handles automated fixes and PR creation, prioritizing issues from Critical to Low. Use it for implementing new features, large refactorings, security-critical development, or when a systematic approach is requested.

Documentation

Executing AI Development Workflow

概要

AI開発のベストプラクティスを体系化した10ステップの自動化ワークフローを実行します。 計画立案から実装、多層レビュー、自動修正、PR作成まで一貫して管理します。

主な特徴

  • 多層レビューシステム: 4つのSub-agent + Claude Code /review + CodeRabbit CLI
  • 優先度ベースの修正: Critical/High/Medium/Lowで自動分類
  • 完全なドキュメント化: プランとレビュー結果を_docs/に保存
  • 妥当性重視: AIレビューの誤検知を適切に判断
  • 人間の介入ポイント: 重要な判断箇所で確認を求める

使い方

以下のようなリクエストでこのSkillが発動します:

「AI開発ワークフローで〜を実装して」
「Use the executing-ai-development-workflow skill to implement...」
「計画的に実装したい」

詳細な使用例は examples.md を参照してください。

ワークフロー概要

1. Planning (プラン作成 - Claude Codeプランモード)
   ↓
2. Documentation (プランを_docs/plans/にチェックボックス付きで保存)
   ↓
3. Implementation (Sub-agentで実装)
   ↓
4. Multi-layer Review
   ├─ 4a. 複数の評価用Sub-agent(並列実行)
   ├─ 4b. Claude Code /review コマンド
   └─ 4c. CodeRabbit CLI
   ↓
5. Review Documentation (_docs/reviews/に統合保存)
   ↓
6. Automated Fixes (Critical/High優先度の妥当なもののみ)
   ↓
7. Human Confirmation (Medium優先度の妥当性判断)
   ↓
8. PR Creation (GitHub PR作成 + CodeRabbitとClaude Codeがレビュー)
   ↓
9. PR Review Response (妥当なもののみClaude Codeで修正)
   ↓
10. Merge (+ 人力レビューを適宜挟む)

詳細な各ステップの説明は workflow.md を参照してください。

主要な実行フロー

Step 1-3: 計画と実装

  1. プランニング: プランモードで実装計画を立案
  2. ドキュメント化: _docs/plans/YYYY-MM-DD-[feature-name].md に保存
  3. 実装: 適切なSub-agentに委任

Step 4-5: 多層レビュー

4a. Sub-agent Reviews(並列実行):

  • code-reviewer
  • security-auditor
  • architect-review
  • test-ai-tdd-expert

4b. Claude Code /review:

/review

4c. CodeRabbit CLI:

coderabbit --prompt-only --type uncommitted

結果を _docs/reviews/YYYY-MM-DD-[feature-name]-review.md に統合保存。

Step 6-7: 修正と確認

  • Critical/High: 妥当なもののみ自動修正
  • Medium: 人間が妥当性を判断(修正/保留/却下)
  • Low: 記録のみ

Step 8-10: PR作成とマージ

  1. レビューサマリー付きでPR作成
  2. CodeRabbitとClaude Codeが追加レビュー
  3. 妥当な指摘のみ修正
  4. 人力レビューを適宜挟みながらマージ

優先度判定

config.json で定義された優先度ルール:

優先度内容対応
🔴 Criticalセキュリティ脆弱性、重大なバグ妥当なものを即時自動修正
🟠 Highパフォーマンス問題、設計問題妥当なものを即時自動修正
🟡 Mediumコード品質、ベストプラクティス人間が妥当性判断
🟢 Lowスタイル、命名、軽微な改善記録のみ

人間確認ポイント

以下の3つのタイミングで必ず人間の確認を得ます:

  1. プラン承認時 (Step 1後)
  2. Medium優先度の修正判断時 (Step 7)
  3. PR作成前の最終確認 (Step 8前)

前提条件

必要なツール

  • Git: バージョン管理
  • GitHub CLI (gh): PR作成・管理
  • CodeRabbit CLI: インストール済み & 認証済み

プロジェクト準備

# _docs ディレクトリの作成
mkdir -p _docs/plans _docs/reviews

設定ファイル

config.json

優先度判定ルールとSub-agent設定を定義:

{
  "priority_rules": {
    "critical": { "keywords": [...], "patterns": [...] },
    "high": { "keywords": [...] },
    "medium": { "keywords": [...] },
    "low": { "keywords": [...] }
  },
  "review_agents": [...],
  "coderabbit_cli": {...},
  "auto_fix_threshold": "high"
}

テンプレート

  • templates/plan.md: 実装計画テンプレート
  • templates/review.md: レビュー結果テンプレート

重要な考え方

このSkillは、AI駆動開発において**「妥当性」**を重視します。

  • ✅ AIレビューの指摘はすべてが正しいわけではない
  • ✅ Critical/Highでも誤検知や過剰な提案がある
  • 人間の判断が最も重要
  • ✅ プロジェクトの文脈を理解した上で適切に取捨選択

AIはツールです。最終的な判断は常に人間が行います。

関連ファイル

Quick Install

/plugin add https://github.com/camoneart/claude-code/tree/main/executing-ai-development-workflow

Copy and paste this command in Claude Code to install this skill

GitHub 仓库

camoneart/claude-code
Path: skills/executing-ai-development-workflow

Related Skills

sglang

Meta

SGLang is a high-performance LLM serving framework that specializes in fast, structured generation for JSON, regex, and agentic workflows using its RadixAttention prefix caching. It delivers significantly faster inference, especially for tasks with repeated prefixes, making it ideal for complex, structured outputs and multi-turn conversations. Choose SGLang over alternatives like vLLM when you need constrained decoding or are building applications with extensive prefix sharing.

View skill

llamaguard

Other

LlamaGuard is Meta's 7-8B parameter model for moderating LLM inputs and outputs across six safety categories like violence and hate speech. It offers 94-95% accuracy and can be deployed using vLLM, Hugging Face, or Amazon SageMaker. Use this skill to easily integrate content filtering and safety guardrails into your AI applications.

View skill

evaluating-llms-harness

Testing

This Claude Skill runs the lm-evaluation-harness to benchmark LLMs across 60+ standardized academic tasks like MMLU and GSM8K. It's designed for developers to compare model quality, track training progress, or report academic results. The tool supports various backends including HuggingFace and vLLM models.

View skill

langchain

Meta

LangChain is a framework for building LLM applications using agents, chains, and RAG pipelines. It supports multiple LLM providers, offers 500+ integrations, and includes features like tool calling and memory management. Use it for rapid prototyping and deploying production systems like chatbots, autonomous agents, and question-answering services.

View skill