Goals
このノートは構造化プラグラミングの考えを分析用Notebookに適用したものです.
Definition A.1 分析用NoteBook
- 分析用Notebookとは,実際にデータ分析を行うコード,EDA,統計・機械学習パッケージの適用,結果可視化,ドキュメントを統合したアウトプットのこと
.ipynb や .py の形式を採ることを想定
- 属人性を減らす
- 可観測性・再現性の確保
- 保守・拡張の容易性
これを実現するにあたって,構造化プラグラミングを分析用Notebookに応用すると,次のような設計指針になります:
- 逐次進行: Notebookのセルは上から順に実行されることを意識し,途中で状態が変化する場合は関数化して,入力・出力を明示的に管理する
- モジュール化・抽象化・情報隠蔽: 各処理を関数やクラスに閉じ込め,利用者は「入力を渡すと結果が得られる」という本質的な操作だけに集中できるようにする
Guidelines
Rule 1: ノートの構造化
- Markdownやコメントアウトを用いて,処理ごとにセクション分けする
- ノートを順序立てて理解しやすくする
Example A.1 (ノートの構造化)
.ipynb を用いる場合 markdown sectionを用いて以下の階層にする
- データロード・前処理
- モデル構築
- 学習・予測
- 評価・可視化
- 結論・次のステップ
Example A.2 (各セルの文書化)
以下のようにMarkdownを使って各セクションの目的・前提条件・入力データの型や形式,出力結果の形式をを明示をする
# 学習データのロードと前処理
# - CSV から読み込み
# - 欠損値削除
# - 特徴量生成
df = (
load_data("data.csv")
.pipe(preprocess_data)
.pipe(feature_engineering)
)
Rule 2: 実行時間・リソースの共有
- 各セルや処理単位で処理時間やメモリ使用量の測定を推奨(義務ではない)
実行時間等の情報はパフォーマンスチューニングの基礎情報となるので,できるだけ残すようにしましょう.
import numpy as np
import pandas as pd
import time
import tracemalloc
# 計測開始
start_time = time.time()
tracemalloc.start()
# データ処理例
# 1. ダミーデータ作成
df = pd.DataFrame({
"feature1": np.random.randn(1000000),
"feature2": np.random.randn(1000000)
})
# 2. 前処理: 平均値で標準化
df["feature1_norm"] = (df["feature1"] - df["feature1"].mean()) / df["feature1"].std()
df["feature2_norm"] = (df["feature2"] - df["feature2"].mean()) / df["feature2"].std()
# 3. 簡単な特徴量生成: 和と差
df["sum"] = df["feature1_norm"] + df["feature2_norm"]
df["diff"] = df["feature1_norm"] - df["feature2_norm"]
# 計測終了
end_time = time.time()
current, peak = tracemalloc.get_traced_memory()
tracemalloc.stop()
print(f"処理時間: {end_time - start_time:.2f} 秒")
print(f"メモリ使用量: 現在 {current/1024**2:.2f} MB / 最大 {peak/1024**2:.2f} MB")
処理時間: 0.13 秒
メモリ使用量: 現在 45.80 MB / 最大 53.44 MB
Rule 3: セルは「1タスク1目的」に
- 各セルには1つの明確な処理だけを書く
- 複数処理をまとめず,状態が追跡できるようにする
Example A.3
データロードセルと前処理セルは処理内容が違うので明確に分けること
# データロードセル
X, y = load_data("data.csv")
# 前処理セル
X = preprocess_data(X)
Rule 4: セルは上から順に逐次実行
- Notebookは上から下に逐次実行できる構造にする
Example A.4 (NG例)
# NG例: 逐次実行で状態が依存する(グローバル変数を直接更新)
X = load_data("data.csv")
X = preprocess_data(X)
model = LinearRegression()
model.fit(X, y)
y_pred = model.predict(X)
- この例では
X がセルごとに変化してしまっている
- 逐次実行順序を間違えても,全体として回ってしまうが予期せぬ結果になる可能性がある
Rule 5: 明示的な状態管理
- グローバル変数は最小限に
- 関数・クラスを使い入力・出力を明確にする
- 出力や中間結果はログとして確認できるようにする
- 逐次実行で状態が変化する場合は,関数化・引数渡しで明示化する
ノートブックはセル単位で順次実行されるため,グローバル変数に依存するとどのセルでどの値が生成されたか追跡が難しいという欠点があります. そのため,複数人で分析を行う場合,誰かがグローバル変数を上書きすると意図せぬバグにつながるリスクがあります.
Example A.5
class RegressionPipeline:
def __init__(self, X, y):
self.X = X
self.y = y
self.model = None
self.y_pred = None
def train(self):
self.model = LinearRegression()
self.model.fit(self.X, self.y)
print("Model trained with coefficients:", self.model.coef_)
def predict(self):
self.y_pred = self.model.predict(self.X)
return self.y_pred
def evaluate(self):
metrics = compute_metrics(self.y, self.y_pred)
print("Evaluation metrics:", metrics)
return metrics
Information Hidingに従いクラスをパッケージとして作成した上で,分析スクリプトでは
from src.estimators import RegressionPipeline
# 実行スクリプト
pipeline = RegressionPipeline(X, y)
pipeline.train()
pipeline.predict()
metrics = pipeline.evaluate()
とすると,
- ステート(
X, y, model, y_pred)がクラス内に集約される
- メソッドごとに処理が分かれており,順次進行・条件分岐・繰り返しの構造も整理される
- 中間結果やログも容易に観測できるため,デバッグ・再現性に優れる
これらが実現できます.
Example A.6 (パイプを用いた引数渡し)
import polars as pl
from sklearn.model_selection import train_test_split as sk_split
# データロード
def load_data(path: str) -> pl.DataFrame:
print("Loading data from", path)
return pl.read_csv(path)
# データ前処理
def preprocess_data(df: pl.DataFrame) -> pl.DataFrame:
print("Preprocessing data")
# 例: 欠損値削除
return df.drop_nulls()
# 特徴量エンジニアリング
def feature_engineering(df: pl.DataFrame) -> pl.DataFrame:
print("Feature engineering")
return df.with_columns([
(pl.col("col1") * 2).alias("new_feature")
])
def train_test_split(df: pl.DataFrame, target_col="target", test_size=0.2, random_state=42):
df_pd = df.to_pandas() # sklearn は pandas DataFrame 必須
train, test = sk_split(df_pd, test_size=test_size, random_state=random_state)
return pl.from_pandas(train), pl.from_pandas(test)
# パイプライン風にチェーン
df_train, df_test = (
load_data("data.csv")
.pipe(preprocess_data)
.pipe(feature_engineering)
.pipe(train_test_split)
)
# fitting
model = train_model(df_train, target_col="target")
# predict
y_pred = predict(model, df_test)
Rule 6: モジュール化(Modularity)
- 1つの処理は1関数/1クラスにまとめる
- 各モジュールは50行程度以内,1つの明確なタスクに絞る
- 再利用性と保守性を意識する
Example A.7
def train_model(X, y):
model = LinearRegression()
model.fit(X, y)
return model
def evaluate_model(y_true, y_pred):
metrics = compute_metrics(y_true, y_pred)
plot_results(y_true, y_pred)
return metrics
Rule 8: ロギングと中間結果の可視化
- 重要な中間結果は print/log/plot で確認可能にする
Example A.9
print("Training set shape:", df_train.shape)
print("Test set shape:", df_test.shape)
Rule 9: 再現性の確保
- 乱数のシード設定,データ分割の固定
- Notebook 内で全ての結果が同じ順序・値で再現できるようにする
Example A.10
import numpy as np
np.random.seed(42)