Hello 各位 300 萬大大好,小的是轉職生,之前在 Ptt 上獲益良多,所以來回饋一下我
的面試經歷,如果有公司不想被分享,請來信告知,我會儘速刪除,謝謝!
求職時間:2021/07 - 2021/08
Medium 好讀版:
https://v3708599.medium.com/appworks-school%E8%BD%89%E8%81%B7%E5%BF%83%E5%BE%97-data-backend-engineer-3cb13c940be7
## 自我介紹
政大傳院、商院背景學士。
上一份工作是在迪卡儂做部門經理,過去沒接觸過程式,是因為工作上需要用到 Google
Sheet 自動化程式腳本,才開始玩起程式,後來覺得技術挺有趣的,於是報名台大
CCclub 的 Python 入門,利用幾個月的下班時間學習。(大概一個禮拜花 3-5 個小時摸
)
2020 年底,因為當時的工作發展和未來職涯考量不同,興起換工作挑戰的念頭,想說寫
程式當職業好像不錯,決定報名 AppWorks School 新推出的 Data Engineer 培訓。(中
間省略了很多心路歷程的轉變 XD)
在今年 2 月辭職後,全職認真學習,直至 7 月中於 School 畢業開始找工作。
我覺得自己不算太聰明,理解能力尚可而已(比起班上其他同學啦,但能進 AppWorks
School 的都不會太差?)寫的 code 還有待加強,唯一優勢就是溝通能力不錯,能夠清
楚表達自己的需求與邏輯(以前學生實習擔任過獵人頭、也有幾次演講經驗,之前工作上
需要管理團隊)。
開發經驗大致如下:
有前後端開發經驗,基本上是用 Python Flask、Django 寫後端,前端沒有用框架,就是
乖乖用 JavaScript、HTML、CSS 刻,能用 ajax 就用 ajax,盡量練習開 RESTful API。
Data 相關則是 Airflow、爬蟲、Pyspark(一點點)、推薦系統
還有很多沒列到的,可以參考 AppWorks School 提供的學習規劃
-https://drive.google.com/file/d/13C3Yodr6yc2KFezv_cmx5-B-Ojq7tQgr/view
## 面試結果
最終獲得四間 Offer,分別為創業家兄弟(生活市集)、
Rezio(KKday)、炬識科技、趨勢科技,待遇在年薪 60 - 80 萬間。
## 面試總覽
總共投遞:海投約 70 間。
最初一兩週只投了約 15 間,想說應該就能找到工作了(?後來經過朋友提點,投履歷又
不用錢,幹嘛把自己的機會限縮在 10 多家公司手裡,於是調整方式、不再侷限 data 相
關職缺,只要跟 Python 有關的就投,不管是後端還是爬蟲,公司大小也不管,先得到面
試機會再說。實在投太多公司了,這裡就不一一列出來,只寫出有邀請面試的公司。
- **投遞後,直接明確拒絕我的:**
汪喵星球(Backend)、 鈦度科技(Backend)、 臺灣發展軟體科技、湛研科技(
Backend)
再次感謝這些公司迅速地拒絕XD
- **有邀請面試:**
炬識、大慶證券、Arc&Codementor、大數據科技公司、麟數據、趨勢科技、木刻思公司、
Sonic Sky(香港商聲吶天空)
- **透過 School 的 Hiring Partner 計畫,拿到的面試機會:**
Snapask、Rezio(KKday)、創業家兄弟、LikeCoin、aiseed tech
以下就會分開講每家面試的問題與概述,其實問題很多都很類似,但我真的懶得整理成一
個版本,所以大家就自己看看,看到很多次重複的話,代表那題很重要XD
### School Hiring Partner
先說 AppWorks School 內部媒合面試的流程,跟外面的面試有一點不同,會先經過一次
20 分鐘的快速面試,讓彼此有初步的認識與了解、再決定有沒有後續面試,可以想像就
是一般正式面試前的 Phone Interview。
以下沒特別提的話,第一關就是指快速面試。
### 1. Snapask - Data Engineer
#### 第一關: Data Scientist X1
整場面試基本上圍繞在我的專案上面,以下是專案介紹完,面試官的提問。因為他們找的
位置就是要好好顧 airflow 的人,所以主要就是問整個 airflow 的流程,到哪個 Task
的時候要跳出,接受到 upstream 的哪些資訊, downstream 會怎麼處理。
題目:
- 如果公司內部的 Airflow 是 1.0 版本,你要怎麼在不影響數據的前提下,把所有的
task 升級到 2.0 的 Airflow 上面
一面結束後,就會收到作業邀請,這份作業是要我們建置一個爬蟲程式,並運用
Airflow 去管理,同時要架設在 Docker 的 Container 上。爬蟲本身不難,主要是我沒
用過 Docker 建置 Airflow ,被各種環境搞得很痛苦~
寫完之後就進到二面。
#### 第二關:技術面試(約 1 hr)
#### 面試官: Data Scientist X3
這一關滿硬的,都是在討論技術題。
剛開始會是 Snapask 介紹他們現在的主要業務、以及找這個缺的原因。現階段他們的
ETL 是 Data Scientist 在建置管理,但因為業務量愈來愈大,希望找一個專職處理
Data 的工程師,讓 Scientist 專心處理 Model 的訓練與演算法。
問題主要就是再把專案問更細,然後想要了解你除了專案中使用 Airflow 的經驗以外,
有沒有處理不同來源的資料(Batch or real-time stream)
題目就像是:
- 你會怎麼規劃 Server 的資料流架構(Mysql、Redis、Session...等)
- Batch 類型的資料,你會如何存放與使用?(像是統計分析報表的原始資料)
- RESTful API 是什麼?你在專案中是如何使用?
- 是否有用過 BI 工具的經驗,是否有做過這部分的資料串接。
- 對 Data Engineer 這份工作的期望為何?
二面結束後,說如果有機會,就會到最後一面,跟工程部的 Leader 聊聊。
#### 結果:感謝信
原因:這是他們第一個 Data Engineer,希望找有經驗的工程師來幫忙建置QQ