乙Py先生のプログラミング教室
初学者のためのプログラミング学習サイト

Python

今回はRedisを使ったNoSQL入門です。

解説動画はこちら


 

Redisで超簡単NoSQL入門

今回は Redis のお話です。

Redisは
オープンソースのインメモリデータベース(NoSQL)
になります。


Redisの特徴

キーと値の組み合わせ(キー・バリュー型)でデータを保存
すべてのデータをメモリ上に保持し、高速アクセスを実現
永続化(データの保存)も可能
シングルスレッドながら非常に高速な動作
Python, JavaScript, Go など多くの言語に対応
キャッシュやリアルタイム分析に最適です



Redisの仕組み

データは基本的にRAMに格納(超高速アクセス)
サーバーに配置すれば何処からでもアクセス可能
コマンド操作でデータの入出力などを行う

必要に応じてディスクにバックアップ(永続化)
RDB方式(スナップショット型)
一定間隔でメモリの状態を .rdb ファイルに保存



Redisが扱えるデータ構造

次のようなデータ型でデータを保存できます。

String 文字列、数値
List 順序付きリスト(スタック・キュー)
Set 重複のない集合
Sorted Set(ZSet) スコア付き集合(順序あり)
Hash フィールドと値の連想配列
Stream 時系列データのログ
Geo 地理情報(緯度・経度)



Redisの主なユースケース

Webアプリのキャッシュ
セッション管理
メッセージキュー
トークンや一時的なデータの保存



Colab で Redisを動かす

ここからはGoogle Colabで
Redisを動かしていきましょう。

Google Colabにはredis 関連のものが
インストールされていないので
インストール必要があります。


Redisのインストールと起動
!apt-get update > /dev/null
!apt-get install -y redis-server > /dev/null

Redisの起動
!redis-server --daemonize yes

接続確認
!redis-cli ping

Pythonクライアント(redis-py)のインストール
!pip install redis

Pythonでの接続確認
import redis

# Redisに接続
r = redis.Redis(host='localhost', port=6379, db=0)

# 接続テスト → True が返ればOK
r.ping()


ここからはデータの投入方法と
取得方法です。


String型(基本のキー・バリュー)
値のセット
r.set('キー名', '値')

値の取得
r.get('キー名')
※ データはバイト型で返る

# 値の保存(set)と取得(get)
r.set('message', 'こんにちは!')

print(r.get('message').decode())
こんにちは!




数値操作(インクリメント・デクリメント)

インクリメント
r.incr('キー名')

デクリメント
r.decr('キー名') 

# 値のセット(10)
r.set('count', 10)
print(r.get('count').decode())

# インクリメント(11)
r.incr('count')
print(r.get('count').decode())

# デクリメント(10)
r.decr('count')
print(r.get('count').decode())
10
11
10




List型(スタック/キュー構造)

値をキューに追加
r.rpush('キー名', '値1', '値2', '値3')

値をキューから取得(値を削除しつつ取得)
r.lpop('キー名')

値を全件取得
r.lrange('キー名', 0, -1)

# キューに追加(右) 3つ
r.rpush('task_queue', 'task1', 'task2', 'task3')

# キューから取り出す(左) → task1
print(r.lpop('task_queue').decode())

# 全件取得
print(r.lrange('task_queue', 0, -1))
task1
[b'task2', b'task3']




Hash型(辞書データ)

値のセット
r.hset('キー名', mapping=値)

値の取得(一部)
r.hget('キー名', 'キー名')

値の取得(全部)
r.hgetall('キー名')

# ユーザーデータを登録
r.hset('user:1001', mapping={'name': 'Alice', 'age': '30', 'email': 'alice@example.com'})

# 一部の取得
print(r.hget('user:1001', 'email').decode())

# すべての取得
print(r.hgetall('user:1001'))  # バイナリ形式
alice@example.com
{b'name': b'Alice', b'age': b'30', b'email': b'alice@example.com'}




Set型(重複なし集合)

値のセット
r.sadd('キー名', '値1', '値2', '値3')

値の取得(全部)
r.smembers('キー名')

# 値のセット(python は重複しない)
r.sadd('tags', 'python', 'redis', 'ai', 'python')
print(r.smembers('tags'))
{b'ai', b'redis', b'python'}



Sorted Set(ZSet)でランキング

値のセット
r.zadd('キー名', 値)

値の取得(昇順)
r.zrange('キー名', 開始インデックス, 終了インデックス, withscores=True or False)

値の取得(降順)
r.zrevrange('キー名', 開始インデックス, 終了インデックス, withscores=True or False)

# スコア付きで追加(ランキング)
r.zadd('ranking', {'Alice': 100, 'Bob': 80, 'Charlie': 90, 'Jon':20})

# スコアの降順で表示(上位3名)
print(r.zrevrange('ranking', 0, 2, withscores=True))

# スコアの昇順で表示(下位2名)
print(r.zrange('ranking', 0, 1, withscores=False))
[(b'Alice', 100.0), (b'Charlie', 90.0), (b'Bob', 80.0)]
[b'Jon', b'Bob']



キーの一覧と値の削除

キーの一覧を取得
r.keys('*')

値の削除
r.delete("キー名")

# すべてのキー
print(r.keys('*'))  

# 一括削除
r.delete('message', 'count', 'task_queue', 'user:1001', 'tags', 'ranking')  
print(r.keys('*')) 
[b'tags', b'user:1001', b'ranking', b'message', b'count', b'task_queue']
[]



ユースケースでの使い方

デジタル広告業界
広告クリックの誤クリック判定(5秒の一時記録)
クリックから5秒以内のクリックを無効にする

import redis
import time

# Redisに接続(ローカル or クラウド)
r = redis.Redis(host='localhost', port=6379, db=0, decode_responses=True)

def track_ckick(user_id: str, ad_id: str, timeout_sec: int = 5):
    key = f"clicked:{user_id}:{ad_id}"
    if r.exists(key):
        return "No (Already Counted)"
    else:
        r.setex(key, timeout_sec, 1)
        return "OK (New Click)"

print(track_ckick("user123", "ad789"))  # => OK
time.sleep(3)
print(track_ckick("user123", "ad789"))  # => NO
time.sleep(3)
print(track_ckick("user123", "ad789"))  # => OK (5秒過ぎた)
OK (New Click)
No (Already Counted)
OK (New Click)



まとめ

Redisが使えるようになると
プログラミングやシステム開発の幅が広がります

様々な業界の多用途にマッチする使い方があり
大規模なキャッシュサーバー構築なども出来るので
システム開発ではNoSQLの使用は必須項目です

まずは入門編で使い方を学んでみましょう
それでは

今回はSQLiteを用いた
超簡単なデータベース入門です。


解説動画はこちら



超簡単 SQLite入門

今回は
Google Colabでデータベースを使ってみましょう
SQLiteを用いてデータベースの操作の基本を
体験してみましょう


SQLiteとは

軽量な組み込み型データベースです。

一般的なRDBと使い方はほとんど一緒で
単一ファイルで管理されPython標準ライブラリで操作可能です。

小規模アプリ・学習用途に最適です。


データベースの仕組み


データベースはテーブルと呼ばれる
「表」形式のデータを複数組み合わせたものです。

表は複数のカラム(列)が存在し
データ行はレコードと呼ばれています。
スクリーンショット 2025-05-17 16.28.06

カラムはデータの形式によって
異なるデータ型を定義して格納できるようになっています。

通常のRDBはSQL文を用いて
テーブルの操作を行えるようになっています。

今回は詳細なSQL文の内容説明は省きますが
コードを実行すれば、SQL文を実行したことと同じ結果になります。




データベースの接続

ここからはデータベースの接続を行っていきましょう。

Google Colabでは初めから
SQLiteを使えるようになっています。

# データベース作成と接続
import sqlite3

# データベースの作成

# メモリに保存したい場合
# conn = sqlite3.connect(':memory:')

# ファイルに保存したい場合
conn = sqlite3.connect('sample.db')

# 接続
cursor = conn.cursor()

実行するとファイル置き場に
sample.db が出来上がります。



テーブルの作成

データベースを作成したら
その中にテーブルを作る事ができます。

cursor.execute でSQL文(CREATE文)を実行すると
テーブルを作成できます。

# テーブル作成CREATE文
create_query = '''
CREATE TABLE users (
    id INTEGER PRIMARY KEY,
    name TEXT,
    age INTEGER
)
'''
# テーブル作成を実行
cursor.execute(create_query)
conn.commit()

# テーブルの確認
query = "select name from sqlite_master where type = 'table';"
cursor.execute(query)
cursor.fetchall()


データの投入

INSERT文を実行してデータを投入することができます。

INSERT INTO テーブル名 VALUES (?, ?, ?)

テーブルのカラムの個数と
? の個数を合わせておく必要があります。

投入するデータも、カラムの個数に合わせた
リスト型で定義しましょう。

# データを3件挿入
users_data = [
    (1, 'Alice', 25),
    (2, 'Bob', 30),
    (3, 'Charlie', 22)
]
cursor.executemany('INSERT INTO users VALUES (?, ?, ?)', users_data)
conn.commit()

ここまで実行すると、3件分のデータが格納されると思います。


データの取得

データの取得は
SELECT文を実行してデータを取得する事ができます。

SELECT 抽出カラム FROM テーブル名

# 全件取得
cursor.execute('SELECT * FROM users')
rows = cursor.fetchall()

# 結果を表示
for row in rows:
    print(row)
(1, 'Alice', 25)
(2, 'Bob', 30)
(3, 'Charlie', 22)



条件付きでデータ取得(WHERE)

SELECT文のWHERE句を加えると
条件を指定することができます。

SELECT 抽出カラム FROM テーブル名 WHERE 条件

# 条件付きで取得(年齢 > 23) 
cursor.execute('SELECT name FROM users WHERE age > 23')
print(cursor.fetchall())

[('Alice',), ('Bob',)]



データの更新(UPDATE)

UPDATE文を実行するとデータを更新することができます。

UPDATE テーブル名 SET 更新カラム名 WHERE 条件

# データの更新(Bobの年齢を35に)
cursor.execute("UPDATE users SET age = 35 WHERE name = 'Bob'")
conn.commit()
cursor.execute('SELECT * FROM users')
print(cursor.fetchall())
[(1, 'Alice', 25), (2, 'Bob', 35), (3, 'Charlie', 22)]


データの削除(DELETE)

データの削除はDELETE文を実行して行えます。

DELETE FROM テーブル名 WHERE 条件

# データの削除(Charlieを削除)
cursor.execute("DELETE FROM users WHERE name = 'Charlie'")
conn.commit()
cursor.execute('SELECT * FROM users')
print(cursor.fetchall())
[(1, 'Alice', 25), (2, 'Bob', 35)]



Pandasライブラリでデータ取得

pandasデータフレームでもテーブルからデータ取得できます。

import pandas as pd

df = pd.read_sql_query("SELECT * FROM users", conn)
df


応用編

ビットコインの取引データを取得してテーブルに格納する

取引データを格納するデータベースとテーブルを新たに作ります。
import requests
import sqlite3

# SQLiteデータベースの接続
conn = sqlite3.connect('trades.db')
cursor = conn.cursor()

# 取引テーブルの作成
cursor.execute('''
CREATE TABLE IF NOT EXISTS trades (
    id INTEGER PRIMARY KEY,
    amount REAL,
    rate REAL,
    pair TEXT,
    order_type TEXT,
    created_at DATETIME
)
''')

次のコードを実行すると取引データをDBに格納できます。

# 取引データを取得
# コインチェックのAPIエンドポイント
url = 'https://coincheck.com/api/trades'
params = {'pair': 'btc_jpy', 'limit': 100}
response = requests.get(url, params=params)
data = response.json()

if data['success']:
    # 取引データをデータベースにUPSERT
    for trade in data['data']:
        cursor.execute('''
        INSERT INTO trades (id, amount, rate, pair, order_type, created_at)
        VALUES (?, ?, ?, ?, ?, ?)
        ON CONFLICT(id) DO UPDATE SET
        amount = excluded.amount,
        rate = excluded.rate,
        pair = excluded.pair,
        order_type = excluded.order_type,
        created_at = excluded.created_at
        ''', (trade['id'], float(trade['amount']), float(trade['rate']), trade['pair'], trade['order_type'], trade['created_at']))
    conn.commit()

conn.close()
print("取引データの取得とUPSERTが完了しました。")


ここから先は
Pandasデータフレームで取引データを見てみましょう。

import pandas as pd
import sqlite3

conn = sqlite3.connect('trades.db')
cursor = conn.cursor()

df = pd.read_sql_query("SELECT * FROM trades", conn)

# created_atをdatetime型に変換
df['created_at'] = pd.to_datetime(df['created_at'])
df.set_index('created_at', inplace=True)

取引データを1分単位で集計してみやすくします。
minute_candles = df.resample('min').agg(
    open=('rate', 'first'),
    high=('rate', 'max'),
    low=('rate', 'min'),
    close=('rate', 'last'),
    volume=('amount', 'sum'),
    count=('rate', 'count')
).dropna()

minute_candles["volatility"] = minute_candles["high"] - minute_candles["low"]
minute_candles["volatility_rate"] = minute_candles["volatility"] / minute_candles["close"]
minute_candles["volume_avg"] = minute_candles["volume"] / minute_candles["count"]
スクリーンショット 2025-05-17 16.27.55



最後は可視化です。
集計したデータをplotlyで可視化します。

import plotly.graph_objects as go
from plotly.subplots import make_subplots

# subplot作成(上下2段)
fig = make_subplots(
    rows=2, cols=1,
    shared_xaxes=True,
    row_heights=[0.7, 0.3],
    vertical_spacing=0.02,
    subplot_titles=('ローソク足チャート', '出来高(Volume)')
)

# ローソク足(上段)
fig.add_trace(
    go.Candlestick(
        x=minute_candles.index,
        open=minute_candles['open'],
        high=minute_candles['high'],
        low=minute_candles['low'],
        close=minute_candles['close'],
        name='Candlestick'
    ),
    row=1, col=1
)

# 出来高(棒グラフ・下段)
fig.add_trace(
    go.Bar(
        x=minute_candles.index,
        y=minute_candles['volume'],
        name='Volume',
        marker_color='gray',
        opacity=0.5
    ),
    row=2, col=1
)

# レイアウト調整
fig.update_layout(
    title='ローソク足 + Volume(出来高)チャート',
    xaxis_rangeslider_visible=False,
    showlegend=False,
    height=600
)
fig.show()
スクリーンショット 2025-05-17 16.27.45





まとめ


SQLiteを用いると
非常に簡単にデータベースをセットアップできます。

データ投入や検索もPythonであれば
数行で行う事ができるので
非常に便利です。

これからSQLやデータベースを勉強したい方は
ぜひSQLiteを使ってみてください。

それでは。

今回はKaggleの
マーケティング用データを
覗いてみました。

解説動画はこちら



マーケティングデータを使ってデータ分析してみよう


kaggle のサンプルデータを用いて分析をしてみよう


生成AI系の登場で、単純なプログラマーや
開発系エンジニアの需要が急落しています。

でも、マーケターの需要はまだ有ると思うので
データ分析とかが出来るようになった方が
仕事の幅が増えるんじゃ無い?

ということで、早速マーケティング用の
分析手法を体験するコードを動かしてみましょう。

ここから先は
Google Colab で実行する事ができます。
試したい方は、colabでコードをコピペして
試してみてください。



データセットのダウンロード先

Kaggleのリンク

こちらのサイトからダウンロードできます
Google アカウントなどでログインが必要ですが
ダウンロードしてCSVファイルを手元に保存してください。




サンプルデータの概要

架空の企業による
架空の広告キャンペーンの出稿データのようです


    企業情報: 複数の架空企業
    •    キャンペーン形式: メール・SNS・インフルエンサー・ディスプレイ広告・検索広告など
    •    ターゲット層: 年齢・性別で区分されたオーディエンス
    •    チャネル利用: SNS、YouTube、Google Ads、メールなど複数可
    •    成果指標:
    •    Conversion Rate(CVR):成果への転換率
    •    Clicks , Impressions(CTR):クリック・表示回数
    •    Acquisition Cost , ROI:獲得単価・投資利益率
    •    Engagement Score:1〜10段階のエンゲージメントスコア
    •    時系列データ: キャンペーン実施日あり
    •    地理情報・言語: 主要都市と多言語対応(英・西・仏・独・中)




ライブラリのインポート

データを読み込みするには以下のライブラリを
先に読み込みする必要があります。

pandas : データフレームというデータ型を扱うためのライブラリ
seaborn : 詳細な可視化をするためのライブラリ
matplotlib : 可視化用の基本ライブラリ

import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt


データの読み込み

ライブラリを読み込みできたら
次はデータの配置です。

ダウンロードしたファイルをデータ置き場に置く

colabのメニューの左側に
「フォルダ」マークがあるので
フォルダを開いて、その中にドラッグで
データを配置できます。


配置できたら次のコードで
データを読み込みしましょう。


CSVファイルを読み込みしてPandasデータフレームにする


import pandas as pd
データフレーム変数名 = pd.read_csv(ファイルパス)

# サンプルデータの読み込み
import pandas as pd
file_path = "marketing_campaign_dataset.csv"
df = pd.read_csv(file_path)

データのプレビューは次のコードです
# データのプレビュー
df.head(3)


データを加工する

データ分析では正しい形にデータを補正する必要があります。

今回は下記のデータ加工を行います。

1.数値になっていないカラムを数値に変換
2.不要な数値IDカラムを文字列に変換

.astype(データ型)
.replace("正規表現検索" "変換後の文字列", regex=True)
.str.replace("変換前の文字列","変換後の文字列")

# データの加工を行う
df["Campaign_ID"] = df["Campaign_ID"].astype(str)
df["Acquisition_Cost"] = df["Acquisition_Cost"].replace("[\$,]", "", regex=True).astype(float)
df["Duration"] = df["Duration"].str.replace(" days","").astype(float)


今データに無い指標を作る

データから、別のデータを作成することもできます。
今回のデータにはCTR,CPAの項目がないので
新たに作成してみましょう。


・クリックレート(CTR)
クリック数 / インプレッション数

・顧客獲得単価(Cost Per Acquisition)
獲得コスト / クリック数

# 新しい指標カラムを作成する
df["CTR"] = df["Clicks"] / df["Impressions"]
df["CPA"] = df["Acquisition_Cost"] / df["Clicks"]


数値データの統計量を見る

pandasデータフレームでは
数値型の統計量を見るメソッド describe があります。

これで数値カラムの統計量を算出してみてみましょう。
# 統計量を算出する
df.describe()


ここから、データ分析用のサンプルコードを見ていきましょう
(おさわりだけが)



1.数値データをヒストグラムにする

Seabornライブラリの histplot でヒストグラムを描画する

# 数値型のカラムのみ抽出
numeric_cols = df.select_dtypes(include='number').columns

# カラムごとに個別プロット
for col in numeric_cols:
    plt.figure(figsize=(8, 4))
    sns.histplot(df[col], bins=30, kde=True)
    plt.title(f"Histogram of {col}")
    plt.xlabel(col)
    plt.ylabel("Frequency")
    plt.tight_layout()
    plt.show()



2.チャネル別パフォーマンス分析

チャネル別でConversion_Rate,ROI,Acquisition_Costを集計して
matplotlob で棒グラフで描画する

# チャネルごとの平均CVR・ROI・Acquisition_Costを集計
channel_stats = df.groupby("Channel_Used")[["Conversion_Rate", "ROI", "Acquisition_Cost"]].mean().reset_index()

# 可視化(棒グラフ)
plt.figure(figsize=(12, 5))
sns.barplot(data=channel_stats, x="Channel_Used", y="Conversion_Rate")
plt.title("Chanel AVG Conversion Rate")
plt.xticks(rotation=45)
plt.tight_layout()
plt.show()


3.キャンペーンタイプ別のROI比較(箱ひげ図

Seabornライブラリの boxplot で箱ひげ図を描画する

# ROIの分布をキャンペーンタイプごとに比較
plt.figure(figsize=(10, 6))
sns.boxplot(data=df, x="Campaign_Type", y="ROI")
plt.title("Campaign_Type ROI distribution")
plt.xticks(rotation=45)
plt.tight_layout()
plt.show()


4.ターゲット × セグメントごとのCVR比較

Seabornライブラリの heatmap でヒートマップを描画する


# ピボットテーブルで平均CVRを可視化
pivot = df.pivot_table(values="Conversion_Rate", 
                       index="Target_Audience", 
                       columns="Customer_Segment", 
                       aggfunc="mean")

# ヒートマップで表示
plt.figure(figsize=(12, 6))
sns.heatmap(pivot, annot=True, fmt=".2f", cmap="Blues")
plt.title("Target ×Segment Conversion Rate")
plt.tight_layout()
plt.show()


5.CTR・CVR・CPAの統合評価

Seabornライブラリの scatterplot で
散布図を描画する


# 散布図でCTRとCVRの相関を視覚化(CPAでサイズ分け)
plt.figure(figsize=(10, 6))
sns.scatterplot(data=df, x="CTR", y="Conversion_Rate", size="CPA", hue="Channel_Used", sizes=(20, 200), alpha=0.7)
plt.title("CTR vs Conversion Rate(dots=CPA)")
plt.tight_layout()
plt.show()


おわりに


マーケティング活動もプログラミングができると
より大量のデータ量を扱え、もっと多彩な分析手法も
取り入れる事ができるようになります。

もっとマーケティング X プログラミング を学びたい方は
この先の講座を検討中につき、それをお待ちください!!!

それでは。

 

今回は最近注目度が上がってきている
簡単UI作成ツールStreamlitのお話です




解説動画はこちら




Streamlitについて


1. Streamlitとは?

一言で言うと…

Pythonコードだけでインタラクティブな
Webアプリを作れるツールです


何がすごいの?

以下のような特徴があります。


HTMLやJavaScriptの知識がほぼ不要で
めちゃくちゃ簡単にGUIが作れる



開発のホットリロード(即時反映)が可能で
主にデータ可視化や機械学習モデルのデモ
ダッシュボード作成に使われる

StreamlitはSnowflake傘下となり
クラウドデータ活用との親和性がより高くなっている
(Snowflakeはフルマネージドなデータウェアハウスサービス)


2. Streamlitの特徴

こんな特徴があります。

PythonだけでOK
WebフレームワークやHTML/CSS/JSを知らなくても作れる


インタラクティブUI
スライダー、チェックボックス
セレクトボックスなど簡単に追加できる


ライブ更新
コードを保存するだけで即座にアプリが更新される


グラフとの相性
matplotlib, plotly, seaborn, altairなどと簡単に連携


デプロイも簡単
streamlit.ioや他のクラウドでも簡単に公開できる


Snowflake統合
Snowflake上でStreamlitアプリをホスティング可能

最近ではSnowflake上で簡単に
Streamlitアプリを作って公開できるので
めちゃくちゃ便利で捗ります!!!!!!

これだけでも使う価値アリかなと思っています。





3. 基本的な使い方

インストール方法

ローカルで使用したい場合は以下のコマンドで
インストールできます。
pip install streamlit


インストールが終わったら
こんな簡単なコードを書いて
app.py で保存します。
import streamlit as st

st.title("こんにちは Streamlit!")
st.write("これは最初のアプリです")
x = st.slider("数字を選んでください", 0, 100, 25)
st.write("選んだ数字は", x)

アプリを起動するには
streamlit run app.py
で起動できます。
(ファイルが有るディレクトリで実行)

実行するとブラウザーが立ち上がり
そこにアプリが表示されます。

スクリーンショット 2025-04-19 15.42.00



4. 使えるウィジェットの例


ウィジェットの紹介
次のようなものが使えます。

    st.button()    ボタン    
    st.slider()    スライダー    
    st.selectbox()    プルダウン    
    st.checkbox()    チェックボックス    
    st.text_input()    テキスト入力    
    st.file_uploader()    ファイルアップロード    
    st.image()    画像表示    
    st.map()    地図表示(pandasの緯度・経度データ)    

以下のコードを書いて実行すると
サンプル的に試すことができます。

import streamlit as st
import pandas as pd
import numpy as np
from PIL import Image

st.title("Streamlit ウィジェットの紹介")

st.header("1. st.button() - ボタン")
if st.button("クリックしてね"):
    st.write("ボタンが押されました!")

st.header("2. st.slider() - スライダー")
slider_val = st.slider("数値を選んでください", 0, 100, 25)
st.write(f"現在の値: {slider_val}")

st.header("3. st.selectbox() - プルダウンメニュー")
option = st.selectbox("好きな果物を選んでください", ["りんご", "バナナ", "ぶどう"])
st.write(f"選択されたのは: {option}")

st.header("4. st.checkbox() - チェックボックス")
agree = st.checkbox("私は利用規約に同意します")
if agree:
    st.write("同意ありがとうございます!")

st.header("5. st.text_input() - テキスト入力")
name = st.text_input("あなたの名前は?")
if name:
    st.write(f"こんにちは、{name}さん!")

st.header("6. st.file_uploader() - ファイルアップロード")
uploaded_file = st.file_uploader("画像をアップロードしてください", type=["jpg", "png"])
if uploaded_file is not None:
    image = Image.open(uploaded_file)
    st.image(image, caption="アップロードされた画像", width=300)

st.header("7. st.image() - 画像表示(サンプル画像)")
st.image("https://cdn.pixabay.com/photo/2024/11/30/15/55/eiffel-tower-9235220_1280.jpg", caption="タワー", width=100)

st.header("8. st.map() - 地図表示")
st.write("ランダムな緯度・経度データを地図に表示します")
df_map = pd.DataFrame(
    np.random.randn(100, 2) / [50, 50] + [35.69, 139.70],  # 東京周辺
    columns=['lat', 'lon']
)
st.map(df_map)

st.markdown("---")
st.write("以上、Streamlitの基本ウィジェットの紹介でした ")


5. どんな人におすすめ?


以下のような悩みを持っている人ならオススメです!!

PythonでGUIを作りたい人
データ可視化を誰かにシェアしたい人
機械学習モデルを他人に使わせたい人
Snowflakeを使おうとしている人
簡単な社内ツールを作りたい人


6. よくある使い道

こんな使われ方が多いです。

データの可視化アプリ
機械学習モデルのデモ用UI
社内ツールや分析ダッシュボード
ちょっとしたプロトタイプ作成


7.社内ツールデモ

デモは動画をご覧ください。


今回は
最近のStreamlitの使われかた等について
解説させていただきました。

ユーザーが増えると
すんごく捗ると思うので
これからも大注目です

今日はここまでです
それでは。




今回は2025年4月現在で
フリーランスのPythonエンジニアが
どれくらい稼げるかを調査してみました。


解説動画はこちら


 
Pythonエンジニアは稼げるのか


フリーランスになって3年目
Python関連のお仕事してますが

世間的にフリーランスの
Pythonエンジニアはどれくらい稼げるのかを
調査してみました。

フリーランスの案件紹介サイトから
700件ほどを抽出して
サマリーを出してみました。

案件の最頻値、一番多い件数の月単価は
65万円

最大では200万円でしたが
流石にこれは一般人では難しそうです。
download

だいたい単価はこんな感じの分布になります。

案件のスキルや内容をワードクラウドにすると
こんな感じでした。

download-1


WEB系の開発に加えて
データ分析やAI系のツール開発や業務支援アプリ開発
みたいなのが増えていますかね

データ分析基盤の開発なんかも
増えている印象でした。




まとめ

月額65万円あたりが一番多いとなると
年収ベースで780万円前後が関の山

100万円を超えるような単価の高額案件は
経験スキルとしてクラウド開発や複数言語の開発経験が必須

AI開発系は当然、AI開発の経験とデータ周りの
知識が必要になってきていました。

単純なPython開発のみだと
少し夢が無いですよねー

簡単なWEB系の開発単価は下がり
AI系の単価はやや高め

だんだんと二極化してきている感じもあります。

これが2025年4月現在の
Python案件の内容でした。

頑張ってもっと稼げるように
スキルアップしていこうと思う次第でした

今日はこれまでです
それでは。


このページのトップヘ