50萬左右。阿里云算法工程師人才非常緊缺,人工智能領(lǐng)域、IT軟件工程領(lǐng)域和金融系統(tǒng)等部門都有需求,工資福利待遇都很高,年薪都在50萬左右,還有各種福利待遇。
挺好的,阿里巴巴這么大的公司,作為里面的算法工程師,福利待遇肯定會特別高。
主要是聊基礎(chǔ)算法知識和代碼題。
1.算法工程師要求很高的數(shù)學(xué)水平和邏輯思維。
其實語言是次要的,語言只是表達的方式而已。
2 你想成為算法工程師還需要一定的英文水準(zhǔn),因為看中文書你完全體會不到原滋味。
3 不要太拘泥于教材。
蠻多人都在問阿里巴巴常見的面試問題,我就整理一些出來,希望能幫到大家一些吧。
面試時候問的比較多的少不了工作規(guī)劃,所以面試前做個3-5年的工作規(guī)劃,越詳細約好,讓人覺得你是真心想要加入公司,還有多多了解一下公司信息,因為會問你如何看待企業(yè)文化、發(fā)展前景什么的,還有準(zhǔn)備一下個人經(jīng)歷,什么最成功的的事,遇到過的最大的困難之類的。
阿里大數(shù)據(jù)算法一直是業(yè)界的熱門話題之一。作為全球領(lǐng)先的科技公司之一,阿里巴巴一直致力于在大數(shù)據(jù)和人工智能領(lǐng)域取得突破性進展。其強大的數(shù)據(jù)算法在各個業(yè)務(wù)領(lǐng)域發(fā)揮著重要作用,為用戶提供個性化的服務(wù)和優(yōu)質(zhì)的體驗。
阿里巴巴的數(shù)據(jù)算法發(fā)展可以追溯到早期的大數(shù)據(jù)技術(shù)研究階段。隨著公司業(yè)務(wù)的不斷擴張和用戶規(guī)模的增長,阿里巴巴不斷加大對大數(shù)據(jù)算法研究的投入,致力于提升數(shù)據(jù)處理和分析的能力,實現(xiàn)更高效的數(shù)據(jù)挖掘和應(yīng)用。
隨著互聯(lián)網(wǎng)行業(yè)的快速發(fā)展,阿里巴巴不斷優(yōu)化和改進其數(shù)據(jù)算法,推動了公司的業(yè)務(wù)創(chuàng)新和發(fā)展。通過不懈的努力和持續(xù)的創(chuàng)新,阿里大數(shù)據(jù)算法獲得了廣泛的認(rèn)可和應(yīng)用,成為公司發(fā)展的重要支撐。
阿里大數(shù)據(jù)算法在商業(yè)應(yīng)用中發(fā)揮著重要作用,為企業(yè)提供了更準(zhǔn)確、更智能的數(shù)據(jù)分析和決策支持。通過對海量數(shù)據(jù)的深度挖掘和分析,阿里大數(shù)據(jù)算法可以幫助企業(yè)發(fā)現(xiàn)潛在的商機,優(yōu)化運營效率,提升用戶體驗。
在電商領(lǐng)域,阿里大數(shù)據(jù)算法可以通過智能推薦系統(tǒng)為用戶提供個性化的商品推薦,幫助用戶更快速地找到符合自身需求的產(chǎn)品,提升購物體驗。同時,阿里大數(shù)據(jù)算法也可以通過數(shù)據(jù)分析和預(yù)測,幫助企業(yè)做出更明智的營銷決策,實現(xiàn)精準(zhǔn)營銷和客戶維護。
總的來說,阿里大數(shù)據(jù)算法在當(dāng)今數(shù)字化時代扮演著至關(guān)重要的角色,對企業(yè)發(fā)展和用戶體驗產(chǎn)生著深遠的影響。作為全球科技領(lǐng)導(dǎo)者之一,阿里巴巴將繼續(xù)致力于數(shù)據(jù)算法研究和創(chuàng)新,不斷提升數(shù)據(jù)處理和分析能力,為用戶和合作伙伴創(chuàng)造更大的價值。
在當(dāng)今數(shù)字化時代,大數(shù)據(jù)已成為各行各業(yè)不可忽視的重要資產(chǎn)。對于數(shù)據(jù)科學(xué)家和數(shù)據(jù)分析師來說,掌握大數(shù)據(jù)算法是至關(guān)重要的技能之一。隨著數(shù)據(jù)量的不斷增長和復(fù)雜性的提升,大數(shù)據(jù)算法的應(yīng)用范圍也越來越廣泛。
大數(shù)據(jù)算法是指為處理大規(guī)模數(shù)據(jù)而設(shè)計的一組算法和技術(shù)。在處理海量數(shù)據(jù)時,傳統(tǒng)的算法可能無法有效地運行,因此需要專門針對大數(shù)據(jù)量級和特點設(shè)計的算法來進行處理。
大數(shù)據(jù)算法的重要性在于它可以幫助企業(yè)從海量數(shù)據(jù)中提取出有用的信息、模式和見解,為決策提供支持。通過運用大數(shù)據(jù)算法,企業(yè)可以更好地理解客戶需求、優(yōu)化產(chǎn)品設(shè)計、改進營銷策略,從而提升競爭力。
下面列舉了一些常見的大數(shù)據(jù)算法面試題,希望能夠幫助準(zhǔn)備面試的同學(xué)更好地理解和掌握相關(guān)知識:
為了更好地準(zhǔn)備大數(shù)據(jù)算法面試,以下是一些建議:
大數(shù)據(jù)算法在當(dāng)今信息爆炸的時代扮演著至關(guān)重要的角色,對于從事數(shù)據(jù)分析和數(shù)據(jù)科學(xué)相關(guān)工作的人員來說,掌握大數(shù)據(jù)算法是必備的技能之一。通過不斷學(xué)習(xí)、實踐和應(yīng)用,相信每個人都可以在大數(shù)據(jù)算法領(lǐng)域取得優(yōu)異的成績。
又到安利Python的時間, 最終代碼不超過30行(優(yōu)化前),加上優(yōu)化也不過40行。
第一步. 構(gòu)造Trie(用dict登記結(jié)點信息和維持子結(jié)點集合):
-- 思路:對詞典中的每個單詞,逐詞逐字母拓展Trie,單詞完結(jié)處的結(jié)點用None標(biāo)識。
def make_trie(words):
trie = {}
for word in words:
t = trie
for c in word:
if c not in t: t[c] = {}
t = t[c]
t[None] = None
return trie
第二步. 容錯查找(容錯數(shù)為tol):
-- 思路:實質(zhì)上是對Trie的深度優(yōu)先搜索,每一步加深時就消耗目標(biāo)詞的一個字母。當(dāng)搜索到達某個結(jié)點時,分為不消耗容錯數(shù)和消耗容錯數(shù)的情形,繼續(xù)搜索直到目標(biāo)詞為空。搜索過程中,用path記錄搜索路徑,該路徑即為一個詞典中存在的詞,作為糾錯的參考。
-- 最終結(jié)果即為諸多搜索停止位置的結(jié)點路徑的并集。
def check_fuzzy(trie, word, path='', tol=1):
if word == '':
return {path} if None in trie else set()
else:
p0 = set()
if word[0] in trie:
p0 = check_fuzzy(trie[word[0]], word[1:], path+word[0], tol)
p1 = set()
if tol > 0:
for k in trie:
if k is not None and k != word[0]:
p1.update(check_fuzzy(trie[k], word[1:], path+k, tol-1))
return p0 | p1
簡單測試代碼 ------
構(gòu)造Trie:
words = ['hello', 'hela', 'dome']
t = make_trie(words)
In [11]: t
Out[11]:
{'d': {'o': {'m': {'e': {'$': {}}}}},
'h': {'e': {'l': {'a': {'$': {}}, 'l': {'o': {'$': {}}}}}}}
容錯查找:
In [50]: check_fuzzy(t, 'hellu', tol=0)
Out[50]: {}
In [51]: check_fuzzy(t, 'hellu', tol=1)
Out[51]: {'hello'}
In [52]: check_fuzzy(t, 'healu', tol=1)
Out[52]: {}
In [53]: check_fuzzy(t, 'healu', tol=2)
Out[53]: {'hello'}
似乎靠譜~
---------------------------分--割--線--------------------------------------
以上是基于Trie的approach,另外的approach可以參看@黃振童鞋推薦Peter Norvig即P神的How to Write a Spelling Corrector
雖然我已有意無意模仿P神的代碼風(fēng)格,但每次看到P神的源碼還是立馬跪...
話說word[1:]這種表達方式其實是有淵源的,相信有的童鞋對(cdr word)早已爛熟于心...(呵呵
------------------------分-----割-----線-----二--------------------------------------
回歸正題.....有童鞋說可不可以增加新的容錯條件,比如增刪字母,我大致對v2方法作了點拓展,得到下面的v3版本。
拓展的關(guān)鍵在于遞歸的終止,即每一次遞歸調(diào)用必須對參數(shù)進行有效縮減,要么是參數(shù)word,要么是參數(shù)tol~
def check_fuzzy(trie, word, path='', tol=1):
if tol < 0:
return set()
elif word == '':
results = set()
if None in trie:
results.add(path)
# 增加詞尾字母
for k in trie:
if k is not None:
results |= check_fuzzy(trie[k], '', path+k, tol-1)
return results
else:
results = set()
# 首字母匹配
if word[0] in trie:
results |= check_fuzzy(trie[word[0]], word[1:], path + word[0], tol)
# 分情形繼續(xù)搜索(相當(dāng)于保留待探索的回溯分支)
for k in trie:
if k is not None and k != word[0]:
# 用可能正確的字母置換首字母
results |= check_fuzzy(trie[k], word[1:], path+k, tol-1)
# 插入可能正確的字母作為首字母
results |= check_fuzzy(trie[k], word, path+k, tol-1)
# 跳過余詞首字母
results |= check_fuzzy(trie, word[1:], path, tol-1)
# 交換原詞頭兩個字母
if len(word) > 1:
results |= check_fuzzy(trie, word[1]+word[0]+word[2:], path, tol-1)
return results
好像還是沒有過30行……注釋不算(
本答案的算法只在追求極致簡潔的表達,概括問題的大致思路。至于實際應(yīng)用的話可能需要很多Adaption和Tuning,包括基于統(tǒng)計和學(xué)習(xí)得到一些詞語校正的bias。我猜測這些拓展都可以反映到Trie的結(jié)點構(gòu)造上面,比如在結(jié)點處附加一個概率值,通過這個概率值來影響搜索傾向;也可能反映到更多的搜索分支的控制參數(shù)上面,比如增加一些更有腦洞的搜索分支。(更細節(jié)的問題這里就不深入了逃
----------------------------------分-割-線-三----------------------------------------
童鞋們可能會關(guān)心時間和空間復(fù)雜度的問題,因為上述這種優(yōu)(cu)雅(bao)的寫法會導(dǎo)致產(chǎn)生的集合對象呈指數(shù)級增加,集合的合并操作時間也指數(shù)級增加,還使得gc不堪重負。而且,我們并不希望搜索算法一下就把所有結(jié)果枚舉出來(消耗的時間亦太昂貴),有可能我們只需要搜索結(jié)果的集合中前三個結(jié)果,如果不滿意再搜索三個,諸如此類...
那腫么辦呢?................是時候祭出yield小魔杖了? ??)ノ
下述版本姑且稱之為lazy,看上去和v3很像(其實它倆在語義上是幾乎等同的
def check_lazy(trie, word, path='', tol=1):
if tol < 0:
pass
elif word == '':
if None in trie:
yield path
# 增加詞尾字母
for k in trie:
if k is not None:
yield from check_lazy(trie[k], '', path + k, tol - 1)
else:
if word[0] in trie:
# 首字母匹配成功
yield from check_lazy(trie[word[0]], word[1:], path+word[0], tol)
# 分情形繼續(xù)搜索(相當(dāng)于保留待探索的回溯分支)
for k in trie:
if k is not None and k != word[0]:
# 用可能正確的字母置換首字母
yield from check_lazy(trie[k], word[1:], path+k, tol-1)
# 插入可能正確的字母作為首字母
yield from check_lazy(trie[k], word, path+k, tol-1)
# 跳過余詞首字母
yield from check_lazy(trie, word[1:], path, tol-1)
# 交換原詞頭兩個字母
if len(word) > 1:
yield from check_lazy(trie, word[1]+word[0]+word[2:], path, tol-1)
不借助任何容器對象,我們近乎聲明式地使用遞歸子序列拼接成了一個序列。
[新手注釋] yield是什么意思呢?就是程序暫停在這里了,返回給你一個結(jié)果,然后當(dāng)你調(diào)用next的時候,它從暫停的位置繼續(xù)走,直到有下個結(jié)果然后再暫停。要理解yield,你得先理解yield... Nonono,你得先理解iter函數(shù)和next函數(shù),然后再深入理解for循環(huán),具體內(nèi)容童鞋們可以看官方文檔。而yield from x即相當(dāng)于for y in x: yield y。
給剛認(rèn)識yield的童鞋一個小科普,順便回憶一下組合數(shù)C(n,m)的定義即
C(n, m) = C(n-1, m-1) + C(n-1, m)
如果我們把C視為根據(jù)n和m確定的集合,加號視為并集,利用下面這個generator我們可以懶惰地逐步獲取所有組合元素:
def combinations(seq, m):
if m > len(seq):
raise ValueError('Cannot choose more than sequence has.')
elif m == 0:
yield ()
elif m == len(seq):
yield tuple(seq)
else:
for p in combinations(seq[1:], m-1):
yield (seq[0],) + p
yield from combinations(seq[1:], m)
for combi in combinations('abcde', 2):
print(combi)
可以看到,generator結(jié)構(gòu)精準(zhǔn)地反映了集合運算的特征,而且蘊含了對元素進行映射的邏輯,可讀性非常強。
OK,代碼到此為止。利用next函數(shù),我們可以懶惰地獲取查找結(jié)果。
In [54]: words = ['hell', 'hello', 'hela', 'helmut', 'dome']
In [55]: t = make_trie(words)
In [57]: c = check_lazy(t, 'hell')
In [58]: next(c)
Out[58]: 'hell'
In [59]: next(c)
Out[59]: 'hello'
In [60]: next(c)
Out[60]: 'hela'
話說回來,lazy的一個問題在于我們不能提前預(yù)測并剔除重復(fù)的元素。你可以采用一個小利器decorator,修飾一個generator,保證結(jié)果不重復(fù)。
from functools import wraps
def uniq(func):
@wraps(func)
def _func(*a, **kw):
seen = set()
it = func(*a, **kw)
while 1:
x = next(it)
if x not in seen:
yield x
seen.add(x)
return _func
這個url打開的文件包含常用英語詞匯,可以用來測試代碼:
In [10]: import urllib
In [11]: f = urllib.request.urlopen("https://raw.githubusercontent.com/eneko/data-repository/master/data/words.txt")
# 去除換行符
In [12]: t = make_trie(line.decode().strip() for line in f.readlines())
In [13]: f.close()
----------------------分-割-線-四-----------------------------
最后的最后,Python中遞歸是很昂貴的,但是遞歸的優(yōu)勢在于描述問題。為了追求極致性能,我們可以把遞歸轉(zhuǎn)成迭代,把去除重復(fù)的邏輯直接代入進來,于是有了這個v4版本:
from collections import deque
def check_iter(trie, word, tol=1):
seen = set()
q = deque([(trie, word, '', tol)])
while q:
trie, word, path, tol = q.popleft()
if word == '':
if None in trie:
if path not in seen:
seen.add(path)
yield path
if tol > 0:
for k in trie:
if k is not None:
q.appendleft((trie[k], '', path+k, tol-1))
else:
if word[0] in trie:
q.appendleft((trie[word[0]], word[1:], path+word[0], tol))
if tol > 0:
for k in trie.keys():
if k is not None and k != word[0]:
q.append((trie[k], word[1:], path+k, tol-1))
q.append((trie[k], word, path+k, tol-1))
q.append((trie, word[1:], path, tol-1))
if len(word) > 1:
q.append((trie, word[1]+word[0]+word[2:], path, tol-1))
可以看到,轉(zhuǎn)為迭代方式后我們?nèi)匀豢梢宰畲蟪潭缺A暨f歸風(fēng)格的程序形狀,但也提供了更強的靈活性(對于遞歸,相當(dāng)于我們只能用棧來實現(xiàn)這個q)。基于這種迭代程序的結(jié)構(gòu),如果你有詞頻數(shù)據(jù),可以用該數(shù)據(jù)維持一個最優(yōu)堆q,甚至可以是根據(jù)上下文自動調(diào)整詞頻的動態(tài)堆,維持高頻詞匯在堆頂,為詞語修正節(jié)省不少性能。這里就不深入了。
【可選的一步】我們在對單詞進行糾正的時候往往傾向于認(rèn)為首字母是無誤的,利用這個現(xiàn)象可以減輕不少搜索壓力,花費的時間可以少數(shù)倍。
def check_head_fixed(trie, word, tol=1):
for p in check_lazy(trie[word[0]], word[1:], tol=tol):
yield word[0] + p
最終我們簡單地benchmark一下:
In [18]: list(check_head_fixed(trie, 'misella', tol=2))
Out[18]:
['micellar',
'malella',
'mesilla',
'morella',
'mysell',
'micelle',
'milla',
'misally',
'mistell',
'miserly']
In [19]: %timeit list(check_head_fixed(trie, 'misella', tol=2))
1.52 ms ± 2.84 μs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
在Win10的i7上可以在兩毫秒左右返回所有結(jié)果,可以說令人滿意。
面試題各公司不盡相同。一般而言,都會考一些最基礎(chǔ)的東西,來看你學(xué)的扎不扎實。
比如,我經(jīng)歷過的面試題里,最經(jīng)常遇到的就是畫出星三角接線圖。相信專業(yè)人員都會知道,但真的讓你在紙上畫出來,你真的能完全無誤的畫好嗎?
再就是最基礎(chǔ)的PLC小功能程序編寫,很常見的小程序,如果,寫不出來,那么被錄用的機會很小。
算法工程師各種待遇按工作時間,資歷,等不同,差異很大,基本從4500元到15000元不等。