防衛省サイバーコンテスト2026(成績)と所感

 防衛省サイバーコンテスト事務局から成績票がメールで届きました。

 一般•個人部門で108位/584中でした。去年よりちょっと順位落としたかな。でもまぁ大会のレベルが上がっているので良しとするかな。

 ちなみにこの前書いた参加記(所管)は「ここ」です。

 全体では 272位/987人中 という結果でした。

 自分より上位にいたのは、チームというよりも、いわゆるツヨツヨな学生さんたちがかなり多かった印象です。

 それでも、一般参加者と学生が混ざって競技できるのは、とても良いですね。

 おじさんには良い刺激になります。機会があれば、若い人たちが多く参加している SECCON Beginners CTFにも挑戦してみたいところです。

 さて、話題になっている AI の利用についてですが、競技終了後もしばらくは競技サイトにアクセスできていたので、LLM を使って再チャレンジしてみました。

 さすがに AI エージェントの開発まではできていませんが、

 「プロンプトを工夫して、うまく壁打ちできれば効率は上がるのでは?」と考え、以下の点に留意したプロンプトを AI に考えてもらいました。

  • AI の役割
  • 基本ルール
  • 作業環境
  • 結果の返却方法
  • 禁止事項
  • あきらめるタイミング

 このプロンプトを使うと、確かにある程度は効率的に問題を解ける感触はありました。

 ただ、30点問題については Forensic しか解けませんでした。 😭

 自分の場合、ChatGPT は Plus プランですが、それ以外は無料プランなので、

 やはり 使える LLM モデルの違い も影響しているのかもしれません。

 ……とはいえ、本音を言えば、単純に 自分のスキル不足 が一番の原因な気もしています。

 それでも、一定の効果は確認できたので、いろいろ試してみる価値はありそうです。

 Dify なども使えたりするのかな、と気になっています。

 時間があれば、基本形で作ったプロンプトを OpenAI API で動かし、

 さらに Function Calling を制御して MCP と組み合わせ、AI エージェントを構築。

 そこで抽出したフラグを、別の LLM で動作する複数エージェント間で検証する…

 最後はMCPで問題画面を読み取ったり、フラグを打ち込んだりする機能まで自動化する(ぼくには無理かな😆)

 そんな構成も面白そうだなと思っています。

 もっとも、現状では自分にノウハウがなく、構築はなかなか厳しそうですが 😅ツヨツヨな人のLLMはノウハウをLoRAで学習させたり、RAGで蓄積しているんでしょうね。そして、効率的な手順とかも組み込まれているんでしょうね。(さらにはかなり回数の検証をとっているんじゃないのかなぁ🤔「まさか、それも自動なのかな?」)

 最近は Claude Code の Agent Teams 機能 のように、A2A(Agent-to-Agent)を比較的簡単に実現できそうなツールも出てきていますし、

 今後も次々に登場する新しいモデルやツールをしっかりウォッチしつつ、少しずつでも使いこなせるようになりたいな、と思う今日この頃です。(何を使うかも今後の検討ですね。)

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA