Spark×リモートワーク/在宅勤務可の業務委託案件・フリーランス求人一覧
該当件数
4件中1~4件を表示
並び替え:
〜
700,000円/月
(週4日〜5日)
開発環境 | AWS, GoogleCloudPlatform | |
求めるスキル |
・ データ基盤をゼロから設計・構築した経験
・ GCP環境での開発経験 ・ データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験 ・ ビジネスレベルの英語力 ・ HadoopやSparkなどの分散環境でのデータエンジニアリング経験 |
|
募集職種 | データベースエンジニア, データアナリスト | |
リモートワーク | フルリモート |
〜
700,000円/月
(週4日〜5日)
求めるスキル
・データ基盤をゼロから設計
・構築した経験
・GCP環境での開発経験
・データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験
・構築した経験
・GCP環境での開発経験
・データに関連するプロジェクトにおいて社内関係者とコミュニケーションを取り、課題解決をされた経験
〜
700,000円/月
(週3日〜5日)
開発環境 | AWS, GoogleCloudPlatform | |
求めるスキル |
・ データエンジニアリングの経験(データウェアハウス、データパイプライン構築、データモデリングなど)
・ SQLおよび関連するデータベース技術の知識および経験 ・ クラウドプラットフォーム(AWSやGCP)の知識および経験 ・ 分析基盤の設計、構築、運用経験 ・ 各種データストア(MySQL、Reails、Elasticsearchなど)のチューニング経験 |
もっと見る |
募集職種 | データベースエンジニア, サーバーエンジニア | |
リモートワーク | フルリモート |
〜
700,000円/月
(週3日〜5日)
求めるスキル
・データエンジニアリングの経験(データウェアハウス、データパイプライン構築、データモデリングなど)
・SQLおよび関連するデータベース技術の知識および経験
・クラウドプラットフォーム(AWSやGCP)の知識および経験
・SQLおよび関連するデータベース技術の知識および経験
・クラウドプラットフォーム(AWSやGCP)の知識および経験
〜
900,000円/月
(週5日)
開発環境 | Python, SQL | |
求めるスキル |
・ 何かしらのシステム開発経験3年以上
・ Pythonの実装経験1年以上 ・ Sparkなどの分散処理システムの経験 ・ SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方) ・ データ基盤の構築経験 |
もっと見る |
募集職種 | データベースエンジニア | |
リモートワーク | フルリモート |
〜
900,000円/月
(週5日)
求めるスキル
・何かしらのシステム開発経験3年以上
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
・Pythonの実装経験1年以上
・Sparkなどの分散処理システムの経験
・SQLの実装経験(基本的なDDL、DMLに加え、結合、集計、集合、case文、Window関数などを理解している方)
・データ基盤の構築経験
・アプリケーションの設計経験
・AWSなどクラウド環境を利用したシステム開発の経験
〜
1,000,000円/月
(週5日)
開発環境 | Python | |
求めるスキル |
・ 機械学習案件での10名以上のリーダー経験
・ テーブルデータでの分析案件のリード経験 ・ AIモデル(GBDT系モデル)を利用した分類問題の業務経験 ・ TBオーダーのビッグデータを扱ったご経験 ・ 運行データ/車載データの分析経験 |
もっと見る |
募集職種 | 機械学習エンジニア | |
リモートワーク | フルリモート |
〜
1,000,000円/月
(週5日)
求めるスキル
・機械学習案件での10名以上のリーダー経験
・テーブルデータでの分析案件のリード経験
(データ分析サイクル定義/運用やPoC設計の経験があること)
・AIモデル(GBDT系モデル)を利用した分類問題の業務経験
・TBオーダーのビッグデータを扱ったご経験
(Spark、cuDF、Hadoop)
・テーブルデータでの分析案件のリード経験
(データ分析サイクル定義/運用やPoC設計の経験があること)
・AIモデル(GBDT系モデル)を利用した分類問題の業務経験
・TBオーダーのビッグデータを扱ったご経験
(Spark、cuDF、Hadoop)
Spark案件を絞り込む
リモートワーク