PCED™ – Certified Entry-Level Data Analyst with Python:試験シラバス

試験コード:PCED-30-02
ステータス:実施中


PCED™-30-02 試験は、単一選択式および複数選択式の問題で構成されており、Python を用いたデータの収集、準備、分析、および結果の共有に関する基礎的なスキルを評価します。 本試験では、実務を想定したデータ処理能力、Python プログラミングの基礎、ならびに基本的な分析・レポート作成スキルを総合的に問います。

各設問の配点は最大 1 点です。試験終了後、受験者が獲得した得点は正規化され、パーセンテージ(%)でスコアとして表示されます。

試験は 4 つのセクションで構成されており、それぞれがデータ分析における主要分野をカバーしています。各セクションの配点比率は、その分野の重要度を反映しています。

PCED-30-02 badge

以下の表は、試験問題の構成と各セクションの配点比率をまとめたものです。

セクション番号 セクション名 問題数 配点比率
1 データとデータ分析の基礎概念 9 22.5%
2 データ分析のためのPython基礎 13 32.5%
3 データの操作と基本的な分析 13 32.5%
4 インサイトの共有とレポート作成 5 12.5%
40 100%

試験シラバス

最終更新日:2025年7月14日
PCED-30-02に準拠


試験シラバス


セクション1:データとデータ分析の基礎概念

出題数 → 9 問

データの定義と分類

1.1.1 – データの定義と分類

  1. データの定義と意思決定、ビジネス、日常生活における役割の説明
  2. データ、情報、知識の違い、および生データが処理・解釈によって意味をもつ仕組みの説明
  3. 生データを意思決定に活用できる洞察へと変換する流れの説明

1.1.2 – データの型と形式による分類

  1. 定量データ・定性データへの分類と識別
  2. 構造化データ、半構造化データ、非構造化データを実世界の例を用いて区別

データソース・収集方法・保存方法の説明

1.2.1 – データソースと収集方法の特定

  1. API、Webページ、データベース、IoT機器、調査、ログなどさまざまなデータソースの特定と説明
  2. 調査、インタビュー、観察、自動化システム、Webスクレイピングなどの代表的なデータ収集方法の説明
  3. 代表サンプリングの役割、および偏った・不完全なデータの影響に関する説明
  4. 定性・定量研究の各収集技術の長所・短所の比較

1.2.2 – データの保存と整理方法の説明

  1. データの形式(CSV、JSON、Excel、データベース)や保存システム(データレイク、ウェアハウス、リレーショナルデータベース)の説明
  2. メタデータの役割、データの型・構造・用途に応じたストレージソリューショの比較
  3. 構造・規模・用途に応じた最適なストレージオプションの評価

データのライフサイクルとその管理の説明

1.3.1 – データライフサイクルの説明

  1. データライフサイクルの各段階;収集、保存、処理、分析、可視化/レポート、アーカイブ、削除のリスト化と説明
  2. 各段階でのエラーが、結果や意思決定に与える影響の説明
  3. ライフサイクルの各段階に関連するツールや技術の特定

1.3.2 – ライフサイクル管理の価値と課題の検討

  1. 品質・セキュリティ・コンプライアンス保証における、ライフサイクル全体を管理する重要性の説明
  2. 大規模データ管理における課題と対応策(例:クライドストレージやデータパイプライン)の説明

データサイエンス・分析・解析の範囲理解

1.4.1 – データ分析・データアナリティクス・データサイエンスの違いの理解

  1. それぞれの定義と関係性の説明
  2. 実例を用いたそれぞれの範囲、使用ツール、目的の比較
  3. 各領域におけるプロフェッショナルの役割と責任の説明
  4. 各分野に該当する典型的なタスク(例:要約統計量と機械学習モデリング)の特定

1.4.2 – データアナリティクスのワークフロー

  1. アナリティクスの4大分類の説明:記述的・診断的・予測的・処方的
  2. 各種類のアナリティクスが答える質問と、ビジネス上の重要性の説明
  3. データアナリティクスの主要プロセスの説明:データ収集・事前処理・分析・レポート
  4. 各アナリティクスごとに、実際の現場でのシナリオ例を対応させる

データアナリティクスにおける倫理・法的配慮

1.5.1 – 重要な倫理原則と法的枠組み

  1. データ取り扱いにおける透明性、同意、プライバシー、公平性、責任の説明
  2. 主要な法規(GDPR、HIPAA、CCPA)の特定および責任あるデータ利用の指針の説明
  3. 匿名化や暗号化などの倫理的・公的準拠を支える手法の説明

セクション2:データ分析のためのPython基礎

出題数 → 13 問

変数とデータ型の操作

2.1.1 – 変数やデータ型の活用と基本演算の実施

  1. 代入演算子「=」で変数を定義・代入
  2. 数値の基本的な演算(加算・減算など)、文字列の操作(連結・繰り返し)を行う
  3. type() や instance() で変数の型を調べる
  4. 代表的なPythonデータ型(int、float、str、bool)の識別

Pythonのデータコレクションとシーケンスの活用

2.2.1 – リストの作成と操作

  1. インデックスやスライスでリスト要素にアクセス
  2. append()、insert()、pool()、remove()、sort()、reverse()、count()、index() などでリストを操作
  3. リスト内包表記を用いてデータ変換や抽出処理を行う

2.2.2 – タプルと集合の操作

  1. インデックスでタプル要素にアクセス
  2. タプルの不変性とリストの使い分けを説明
  3. 集合の作成、および add()、remove()、union()、intersection()、isdisjoint()、difference() などの集合を操作
  4. 集合による重複排除や要素確認を行う

2.2.3 – 辞書(dict)による保存・集約・検索

  1. キーと値で辞書を作成
  2. キーを用いた値の参照・更新・削除
  3. for...in構文やitems()メソッドを用いた、辞書内の要素(キーと値)のループ処理
  4. 辞書を用いた集計、検索、カテゴリ分け
  5. データを辞書のリストとして表現

2.2.4 – 文字列をシーケンスとして扱い、文字列メソッドを応用

  1. 文字列のインデックス・スライス・ループ処理
  2. startswith()、endswith()、find()、capitalize()、isdigit()、isalpha() などの文字列メソッドの利用

関数と例外処理

2.3.1 – 関数の定義と呼び出し

  1. def を用いた関数を作成し、引数(位置引数、キーワード引数、デフォルト引数)を渡す
  2. 戻り値に関する説明と、return を使わない場合は関数の戻り値としてNoneが返されることについて解説
  3. pass を関数本体に記述がない場合のプレースホルダーとして使用

2.3.2 – 関数におけるスコープと変数の動作の理解

  1. ローカル変数とグローバル変数の違いの区別
  2. 関数内における名前のシャドーイングと変数のスコープについて説明
  3. グローバル変数の適切な利用に関する理解

2.3.3 – try-except ブロックを用いたエラー処理

  1. TypeError、ValueError、IndexErrorなど、代表的な実行時エラーの特定
  2. try-except構文を用いた、スクリプトのクラッシュの防止
  3. デバッグ用に有用なエラー内容の print 出力またはログ記録

条件分岐とループによるプログラムフローの制御

2.4.1 – ブール論理と比較の活用

  1. 条件分岐における比較演算子および論理演算子の使用
  2. ブール式を用いたデータのフィルタリングや入力値の検証

2.4.2 – 条件分岐による処理の制御

  1. if、elif、else文を記述
  2. 欠損データ、外れ値、不正な入力値を検出
  3. 複雑な判断が必要な場合に、入れ子構造を活用

2.4.3 – 繰り返し処理の記述

  1. for文・while文の使用
  2. break、continue、else句のループにおける適切な使用
  3. 条件分岐と組み合わせた、繰り返し処理によるデータ操作

モジュールとパッケージの利用

2.5.1 – Python モジュールとパッケージのインポートと利用

  1. import、from…import、およびエイリアスを用いた組み込みモジュールのインポート
  2. math、random、statistics、collections、os、datetime などの標準ライブラリの使用
  3. csvモジュールを用いたCSVファイルの読み書き
  4. 組み込みパッケージとサードパーティパッケージの適切な使用の理解

2.5.2 – 外部ライブラリをデータ処理ワークフローに利用

  1. pipを用いた外部ライブラリ(例:numpy)のインストールおよびインポート
  2. numpyを用いた配列操作と数値分析
  3. 組み込みパッケージとサードパーティライブラリの違いの理解

セクション3:データの操作と基本的な分析

出題数 → 13 問

ファイルを用いたデータの読み書き

3.1.1 – Pythonの組み込み機能を用いたテキストファイルの読み書き

  1. open()、read()、readlines()、write()を用いたテキストファイルの取り扱い
  2. with文を用いたファイルの安全な取り扱い
  3. os.path.exists() を用いてファイルパスを扱い、ファイルの存在を確認
  4. ファイル関連エラーを try-except ブロックで処理

3.1.2 – csv モジュールを用いた CSV ファイルの読み書き

  1. csv.reader() を用いた CSV ファイルの読み込み
  2. csv.writer() を用いたデータの書き出し
  3. strip() や split(‘ , ‘) を用いた行の整形と解析
  4. f-strings を用いた整った出力形式の結果を書き出し

分析のためのデータクリーニングおよび整形

3.2.1 – 欠損値や無効なデータの処理・特定

  1. 条件分岐やリスト内包表記を用いた、欠損値や null に近い値の検出
  2. 論理チェックを用いた欠損値の置き換えまたは削除
  3. データ処理前の、無効な型・想定外のフォーマット・範囲外の値の確認

3.2.2 – 重複データの除去と値の正規化

  1. set()、辞書のキー、または内包表記を用いた重複の削除
  2. 最小値・最大値正規化を手動で行う
  3. enumerate 関数を用いてインデックスを付けて処理や変換を行う

3.2.3 – 文字列のクリーニングおよびフォーマット

  1. strip()、lower()、upper()、replace()、title()を用いたクリーニング
  2. 複数の文字列を連鎖した、多段階のクリーニング

3.2.4 – 分析/保存用途に応じたデータ変換・整形

  1. int()、float()、str()、bool() を用いたデータ型の変換
  2. f-strings を用いて数値をフォーマット
  3. split() と join() を用いた文字列の操作
  4. datetime.strptime() と strftime() を用いた日付の処理

基本解析・計算処理

3.3.1 – Pythonの組み込み関数による集計処理

  1. len()、sum()、min()、max()、round() を用いたデータの要約
  2. count() や辞書メソッドを用いた値のカウント

3.3.2 – 組み込みライブラリによる記述統計量の計算

  1. statistics.mean()、statistics.median()、statistics.stdev() の使用
  2. math.sqrt()、math.ceil()、math.floor() の使用
  3. collections.Counter() を用いた頻度のカウント

3.3.3 – Numpy による数値演算

  1. numpy.array()を用いた配列の作成
  2. numpy.mean()、numpy.median()、numpy.std()、numpy.sum()の使用
  3. numpy.arange() と numpy.linspace() を用いた数列の生成

3.3.4 – 条件付きメトリクスの計算(フィルタ・カテゴリ基準)

  1. if文やリスト内包表記を用いたメトリクスのフィルタリング
  2. カテゴリごとのグループ化および辞書やループを用いた集計と要約
  3. 複数の条件を組み合わせた、論理条件の使用

基本的な探索的データ分析(EDA)の実施

3.4.1 – ソートとフィルタを用いたパターンや傾向の特定

  1. sorted() や numpy.sort() を用いたデータの並べ替え
  2. filter()、リスト内包表記、論理条件を用いたデータのフィルタリング

3.4.2 – 固有値と頻度の特定

  1. set() や numpy.unique() を用いた異なる値の特定
  2. Counter を用いた頻度のカウント

3.4.3 – 簡単な相関チェックと外れ値の検出

  1. numpy.corrcoef() を用いた相関の計算
  2. 単純なルールや条件分岐を用いた外れ値の検出
  3. numpy のブーリアンインデックスを用いた外れ値のフィルタリング
  4. コードによる検索で見つかった異常値の解釈

セクション4:洞察の共有とレポート作成

出題数 → 5 問

データ可視化における基本原則の理解

4.1.1 – 一般的な可視化の種類と目的の認識

  1. 棒グラフ、折れ線グラフ、円グラフの特定
  2. 各タイプの適切な使用状況の説明
  3. 各可視化タイプの長所と短所について議論

4.1.2 – 単純なデータ可視化の解釈

  1. 基本的な可視化に示された傾向、比較、割合の説明
  2. 誤解を招く、または不明瞭な可視化の特定および改善方法の説明
  3. 可視化が意図した洞察をサポートしているか、混乱を招いていないかの評価

データストーリーテリングの基礎を適用

4.2.1 – データから得られた洞察の構造化と伝達

  1. 導入・洞察・結論の説明
  2. 根拠に基づく主要メッセージの提示
  3. 流れを作るつなぎやサインポストの使用
  4. 対象者の知識やニーズに応じたトーンや深さの調整

明確で簡潔な分析レポートの作成

4.3.1 – 分析結果の効果的な要約と整理

  1. 裏付けデータを用いて短くまとめる
  2. 問題、分析、洞察、推奨という論理的な構成の使用
  3. 見出し、箇条書き、可視化を用いて明確さと読みやすさを向上

プレゼンテーションにおける洞察の効果的な伝達

4.4.1 – 視覚・言語技術を用いたデータから得られる洞察の明確な伝達

  1. 洗練されたデザイン原則(ラベル、タイトル、色、フォントサイズ)の使用
  2. プレゼンテーションにおけるグラフや結果の明確な説明
  3. 可視化や数値結果の証拠を用いた質問への応答

PCED-30-02 の試験シラバス(PDF)をダウンロード


MQC プロファイル

PCED の MQC(Minimum Qualified Candidate:最小合格候補者)は、データの取り扱い、Python の基礎的なプログラミング、ならびに簡単な分析やデータのやり取りに関する基礎的な知識とスキルを有する人物です。実際のデータを使った場面で、Python 標準機能や基本ライブラリを活用して、データの収集・整理・探索・要約ができます。職務経験は求められていませんが、Pythonを使って初級レベルのデータ課題に対応できる能力が必要とされています。

この候補者は、実際のデータを扱う場面において、Python の標準機能および基本的なライブラリを活用し、データの収集、整理、探索、要約を行うことができます。また、データライフサイクルの基本を理解し、データを倫理的に取り扱う重要性についても認識しています。 さらに、構造化データを対象に、csv、math、random、statistics、collections、os、datetime、numpy などの主要ライブラリを利用した基本的なデータ処理が可能です。

本プロファイルは、データ活用の現場で求められる技術力、分析力、コミュニケーション力をバランスよく備えた人材像を示しています。

セクション1:データとデータ分析の基礎概念(22.5%)

出題範囲:

  • データの種類(定量・定性・構造化・非構造化)を定義・分類する
  • 生データの収集・保存・変換プロセスを説明し、有用な情報への変換プロセスを理解する
  • データソースを特定し、アンケートやWebスクレイピングなどの基本的な収集方法を説明する
  • CSV、JSON、Excel などの保存形式や、データベース・データレイクといったシステムを比較する
  • データライフサイクル全体を理解し、各段階が結果に与える影響を説明する
  • データサイエンス、データアナリティクス、データ分析の違いを区別する
  • 代表的な分析タイプ(記述的分析、診断的分析など)を説明し、基本的なユースケースに適用する
  • データの取り扱いにおける倫理的・法的原則を認識し、匿名化やコンプライアンス(例:GDPR)の重要性を理解する

セクション2:データ分析のための Python 基礎(32.5%)

出題範囲:

  • Python を用いて変数を定義し、基本的な算術演算や文字列操作を行う
  • リスト、タプル、セット、辞書および文字列メソッドの作成・利用する
  • パラメータと戻り値を持つ簡単な関数を作成・利用する
  • 条件分岐やループでプログラムの流れを制御する
  • try 文および except 文を用いて例外処理を行い、コードの堅牢性を高める
  • math、random、collections、s用いてtistics、os、datetime などのモジュールのインポート利用と、numpy のようなパッケージの役割を理解する

セクション3:データの操作と基本的な分析(32.5%)

出題範囲:

  • open()関数と csv モジュールを用いたプレーンテキストおよび CSV ファイルの読み書きを行う
  • 欠損値、重複、無効なデータ形式に対応してデータをクレンジングする
  • 組み込みメソッドや文字列操作を用いてデータの正規化・整形を行う
  • Python 関数を用いた基本的な集計、記述統計量、条件付きメトリクスを計算する
  • NumPy による配列操作を行い、組み込みモジュールを用いた基本的な統計手法を適用する
  • EDA(探索的データ分析)を実施し、ソートやフィルタリングを通じて傾向やパターンを把握し、外れ値を検出し、相関を計算する

セクション4:インサイトの共有とレポート作成(12.5%)

出題範囲:

  • 棒グラフ、折れ線グラフ、円グラフなどの基本的なデータ可視化を理解し、正しく解釈する
  • 分析結果を簡潔かつ明確にまとめた要約や基本的なデータケースとして構成する
  • 適切なビジュアルを用いて、論理的に整理されたレポートを作成する
  • 異なる対象者に合わせた言語表現およびビジュアル手法を用いて、インサイトを効果的に提示する

合格要件

PCED 試験に合格するためには、すべての出題セクションにおける平均正答率が 75%以上であることが求められます。