最終更新日:2025/03/12
【Python/SQL】SaaS企業におけるデータエンジニアの業務委託案件・フリーランス求人
案件基本情報
| 働き方 | フルリモート / 週2日〜5日 |
|---|---|
| 業務形態 | 業務委託(準委任) |
| 職種・ポジション | データベースエンジニア |
| 開発環境 | Python / SQL |
業務内容
ビッグデータやクリエイティブの解析ができるSaaSをマルチプロダクトに展開していくため、新規プロダクトにおける企画段階でのディスカッションから参加し、技術面からプロダクト開発全体をリードしていただきます。
【想定業務内容】
・データ基盤の構築・運用
- 大規模データセットの収集・加工のためのシステム設計・開発
- データパイプラインおよびデータウェアハウスの設計・構築・運用
- LLM用のベクトルデータストアの整備
・バックエンドAPI開発
- 大規模データを活用するプロダクトのバックエンドAPI開発・運用
▼上記業務に慣れてきたら以下にもトライいただきたいです
- LLM/AIエージェントの構築
- ビジネス部門との連携によるデータニーズの把握、データ活用支援
- ドキュメンテーション、技術共有、チームへの貢献
▼開発環境・技術スタック
- バックエンド:Python, Java, Scala
- データパイプライン関連: Airflow, Spark, Flink
- AI関連: LangChain, OpenAI API
- データベース: SQL, PostgreSQL, MySQL, DynamoDB, Firestore
- インフラ: AWS, GCP, Azure
- その他: Tableau, Looker, Power BI
▼このポジションの魅力
- データパイプラインやデータウェアハウスの設計・運用を通じ、企業の意思決定基盤に携わる事が可能
- Python、Node.js、Airflow、Spark、Flink、Tableauなど、多様な技術を駆使してスキルの幅が広げられる
- 自由度の高い開発環境で新しい技術を試せる
- エンジニアリングとプロダクトの両方の視点を養える
- 迅速かつ効率的なアジャイル開発で即座にアイデアを形にできる
- エンジニア同士の学び合いを大切にする環境
求めるスキル
・SQLによるデータ抽出、集計の実務経験 (3年以上)
・PythonもしくはNode.jsのプログラミング経験(2年以上)
・クラウド環境 (AWS, GCP, Azure)でのデータ基盤構築、運用経験 (1年以上)
・データパイプライン構築、運用経験 (Airflow, Spark, Flinkなど)
・データ品質に関する知識、データガバナンスに関する知識
・バージョン管理ツール (Gitなど) の利用経験
・アジャイル開発の経験
・クラウドネイティブ環境での開発経験(AWS Lambda, GCP Cloud Functions, Serverless Framework など)
・CI/CDの構築・運用経験(GitHub Actions, CircleCI, AWS CodePipeline など)
・データベース設計・運用経験(RDB, NoSQL)(PostgreSQL, MySQL, DynamoDB, Firestore など)
・データ可視化ツール (Tableau, Looker, Power BI) の利用経験
・データセキュリティに関する知識、データアクセス制御の実装経験
・大規模データセットの処理経験 (ペタバイト規模等)
・クラウド環境でのデータ基盤/SaaS開発に興味があり、経験を活かしたい方
・ドキュメンテーションを重視し、知識を共有できる方
・エンジニアリングの視点から、システム設計やアーキテクチャの改善提案ができる方
・技術だけでなく、プロダクトの成長にも関心があり、価値提供を意識できる方
業界・ビジネスモデル
| 業界 | SaaS |
|---|
エージェントより
世の中のクリエイティブデータを解析するSaaS! LLMエンジニア募集