Sparkの業務委託案件・フリーランス求人一覧
該当件数
5件中1~5件を表示
並び替え:
〜
1,000,000円/月
(週3日〜5日)
開発環境 | Python Github | |
求めるスキル |
・ GitHub を用いたCI/CDの開発経験
・ アジャイル開発でのPythonを用いた開発・運用経験 ・ 技術選定やアーキテクチャ設計の実務経験 ・ BtoB SaaSの運用開発経験 |
|
募集職種 | バックエンドエンジニア データベースエンジニア | |
リモートワーク | 出社かリモート相談可能 |
〜
1,000,000円/月
(週3日〜5日)
求めるスキル
・GitHub を用いたCI/CDの開発経験
・アジャイル開発でのPythonを用いた開発
・運用経験
・アジャイル開発でのPythonを用いた開発
・運用経験
〜
700,000円/月
(週4日〜5日)
開発環境 | AWS GoogleCloudPlatform | |
求めるスキル |
・ データ基盤をゼロから設計・構築した経験
・ GCP環境での開発経験 ・ データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験 ・ ビジネスレベルの英語力 ・ HadoopやSparkなどの分散環境でのデータエンジニアリング経験 |
|
募集職種 | データベースエンジニア データアナリスト | |
リモートワーク | フルリモート |
〜
700,000円/月
(週4日〜5日)
求めるスキル
・データ基盤をゼロから設計
・構築した経験
・GCP環境での開発経験
・データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験
・構築した経験
・GCP環境での開発経験
・データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験
〜
700,000円/月
(週3日〜5日)
開発環境 | AWS GoogleCloudPlatform | |
求めるスキル |
・ データエンジニアリングの経験(データウェアハウス、データパイプライン構築、データモデリングなど)
・ SQLおよび関連するデータベース技術の知識および経験 ・ クラウドプラットフォーム(AWSやGCP)の知識および経験 ・ 分析基盤の設計、構築、運用経験 ・ 各種データストア(MySQL、Reails、Elasticsearchなど)のチューニング経験 |
もっと見る |
募集職種 | データベースエンジニア サーバーエンジニア | |
リモートワーク | フルリモート |
〜
700,000円/月
(週3日〜5日)
求めるスキル
・データエンジニアリングの経験(データウェアハウス、データパイプライン構築、データモデリングなど)
・SQLおよび関連するデータベース技術の知識および経験
・クラウドプラットフォーム(AWSやGCP)の知識および経験
・SQLおよび関連するデータベース技術の知識および経験
・クラウドプラットフォーム(AWSやGCP)の知識および経験
〜
900,000円/月
(週5日)
開発環境 | Python SQL | |
求めるスキル |
・ 何かしらのシステム開発経験3年以上
・ Pythonの実装経験1年以上 ・ Sparkなどの分散処理システムの経験 ・ SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・ データ基盤の構築経験 |
もっと見る |
募集職種 | データベースエンジニア | |
リモートワーク | フルリモート |
〜
900,000円/月
(週5日)
求めるスキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
〜
1,000,000円/月
(週5日)
〜
1,000,000円/月
(週5日)
求めるスキル
・機械学習案件での10名以上のリーダー経験
・テーブルデータでの分析案件のリード経験
(データ分析サイクル定義/運用やPoC設計の経験があること)
・AIモデル(GBDT系モデル)を利用した分類問題の業務経験
・TBオーダーのビッグデータを扱ったご経験
(Spark、cuDF、Hadoop)
・テーブルデータでの分析案件のリード経験
(データ分析サイクル定義/運用やPoC設計の経験があること)
・AIモデル(GBDT系モデル)を利用した分類問題の業務経験
・TBオーダーのビッグデータを扱ったご経験
(Spark、cuDF、Hadoop)
Spark案件を絞り込む
リモートワーク