97久久人妻精品中文无码_av老司机亚洲精品天堂_国产精品一级无码免费播放_大伊人无码综合天堂Av,_国产精品

celery筆記一之celery介紹、啟動和運行結果跟蹤-環(huán)球熱文

來源:博客園

本文首發(fā)于公眾號:Hunter后端原文鏈接:celery筆記一之celery介紹、啟動和運行結果跟蹤


【資料圖】

本篇筆記內(nèi)容如下:

celery 介紹celery 準備celery 啟動和異步任務的運行運行結果跟蹤1、celery 介紹

celery 大致有兩種應用場景,一種是異步任務,一種是定時任務。

比如說在一個接口請求中,某個函數(shù)執(zhí)行所需的時間過長,而前端頁面并不是立刻需要在接口中獲取處理結果,可以將這個函數(shù)作為異步任務,先返回給前端處理中的信息,在后臺單獨運行這個函數(shù),這就是異步任務。

另一個比如說某個函數(shù)需要每天晚上運行一遍,不可能人天天守著后臺手動執(zhí)行一遍這個函數(shù),那么就可以用 celery 來實現(xiàn)這個定時的周期任務。

接下來介紹一下 celery 的組成:

task

這個任務就是我們前面舉的例子的異步任務或者是定時任務,即為 task,我們可以定義這些任務,然后發(fā)送到 broker

broker

broker 可以理解成消息中間件,用于獲取異步或者定時任務,形成一個或多個消息隊列,然后發(fā)送給 worker 處理這些消息

broker 的形式可以是 Redis,RabbitMQ 或者其他,這里我們使用 Redis 作為消息中間件

worker

worker 是處理消息的程序,獲取 broker 中的消息,然后在 worker 中執(zhí)行,然后根據(jù)配置決定將處理結果發(fā)送到 backend

result_backend

在 worker 處理完消息之后會有 return 或者沒有返回結果,都會根據(jù)配置將結果發(fā)送出來,可以配置成發(fā)送到 redis 中,也可以將之存儲到 database 中

beat

主要用于調(diào)用定時任務,根據(jù)設定好的定時任務,比如每天晚上十點執(zhí)行某個函數(shù),beat 則會在相應的時間將這個 task 發(fā)送給 broker,然后 worker 獲取任務進行處理

定時任務除了說的每天晚上十點這種周期任務,也可以是間隔任務,比如說每隔多少秒,多少分鐘執(zhí)行一次

注意:異步任務的發(fā)送是不經(jīng)過 beat 處理,直接發(fā)送給 broker 的

在上面的結構中,broker 需要將相應的服務比如 redis 運行起來,而 worker 和 beat 需要在手動用程序運行,而且每次更改了定時策略之后需要重新啟動 beat 和 worker 才能生效。

2、celery 準備

接下來我們實現(xiàn)一個最簡單的異步任務,在執(zhí)行異步任務前,我們做如下的準備工作

1.安裝依賴

我們需要安裝一下 celery 和 redis 的依賴:

pip3 install celery==5.1.2 -i https://mirrors.aliyun.com/pypi/simple/pip3 install redis==3.5.3 -i https://mirrors.aliyun.com/pypi/simple/
2.消息中間件

這里我們用到的消息中間件是 redis,可以去官網(wǎng)下載一個 redis 啟動,也可以使用 docker 來執(zhí)行安裝。

我在之前的 docker 系列筆記中有介紹過如何拉取鏡像和運行容器,我們這里直接使用 docker 來運行:

docker run -itd -p 6379:6379 redis:latest
3.異步任務準備

我們準備一個最簡單的 add() 函數(shù),放在 tasks.py 文件中:

# tasks.pyfrom celery import Celeryapp = Celery("tasks", broker="redis://localhost/0", backend="redis://localhost/1")@app.taskdef add(x, y):     return x + y

在這段代碼里,我們引入 Celery 模塊,并將其實例化為 app,且配置了 broker 參數(shù),表示消息隊列都會被放在 redis 的第一個數(shù)據(jù)庫下

指定的 backend 參數(shù)則表示函數(shù)運行的結果被放在 redis 的第二個數(shù)據(jù)庫下

然后用 @app.task 修飾 add 函數(shù),表示它是 app 下的 task 任務

以上,我們的準備工作就完成了,接下來嘗試運行這個異步任務

3、celery 啟動和異步任務的運行

說是 celery 的啟動,其實是 worker 的啟動,中間件是 redis,已經(jīng)在前面的步驟中啟動了。

我們在 tasks.py 所在的文件夾下執(zhí)行下面的命令:

celery -A tasks worker -l INFO

在這里,tasks 是我們?nèi)蝿账诘奈募?,worker 表示啟動的是 worker 程序

-l INFO 則會在控制臺打印出 worker 接收到的消息詳情,如果不執(zhí)行,則信息流不會被打印出來

執(zhí)行了上面的程序后,可以看到控制臺會輸出下面這種信息:

-------------- celery@localhost v5.1.2 (sun-harmonics)--- ***** ----- -- ******* ---- Darwin-21.4.0-x86_64-i386-64bit 2022-07-17 23:56:09- *** --- * --- - ** ---------- [config]- ** ---------- .> app:         tasks:0x7fc8ddf3df98- ** ---------- .> transport:   redis://localhost:6379/0- ** ---------- .> results:     disabled://- *** --- * --- .> concurrency: 12 (prefork)-- ******* ---- .> task events: OFF (enable -E to monitor tasks in this worker)--- ***** -----  -------------- [queues]                .> celery           exchange=celery(direct) key=celery                [tasks]  . tasks.add[2022-07-17 23:56:09,685: INFO/MainProcess] Connected to redis://localhost:6379/0[2022-07-17 23:56:09,699: INFO/MainProcess] mingle: searching for neighbors[2022-07-17 23:56:10,737: INFO/MainProcess] mingle: all alone[2022-07-17 23:56:10,780: INFO/MainProcess] celery@localhost ready.

則表示 worker 啟動成功

執(zhí)行異步任務

在另一個 shell 窗口,進入 python 的交互界面,輸入以下命令:

from tasks import addres = add.delay(1,2)

add 是我們需要執(zhí)行的異步任務的函數(shù)名

delay 是異步任務執(zhí)行的特有方法,這個其實是 apply_async() 函數(shù)的簡便寫法,不帶任何參數(shù),apply_async() 除了可以實現(xiàn)異步任務的功能,還可以指定多少時間后執(zhí)行,比如說二十秒后執(zhí)行,這個在后面的筆記中我們再介紹。

而異步任務的返回我們這里用 res 來定義,它是一個包含了這個任務所有執(zhí)行信息對象,有任務狀態(tài)(是否執(zhí)行成功),有返回結果(add() 函數(shù)的return),還有這個 task 特有的標識 id等信息

至此,我們的一個異步任務的執(zhí)行就完成了,我們可以在下一步查看它的運行結果等信息。

4、運行結果跟蹤

接下來,我們在 tasks.py 中建立下面幾個函數(shù),來測試我們對結果的跟蹤:

# tasks.pyimport timefrom celery import Celeryapp = Celery("tasks", broker="redis://localhost/0", backend="redis://localhost/1")@app.taskdef add(x, y):    return x + y@app.taskdef div(x, y):    return x / y@app.taskdef test_not_finished():    time.sleep(30)    return True

然后重新運行 worker:

celery -A tasks worker -l INFO

然后引入和執(zhí)行函數(shù):

from tasks import add, div, test_not_finished

獲取延時任務的結果

res = add.delay(1, 2)print(res.result)# 也可以使用 get() print(res.get())

get() 函數(shù)也可以加個超時的設置:

res.get(timeout=2)

但是這樣需要注意,因為如果超時了還未獲取到結果,程序就會報錯

判斷函數(shù)運行是否完成

print(res.ready())

打印出的結果為 True 則表示函數(shù)運行完成

我們可以測試函數(shù)為完成的狀態(tài):

res2 = test_not_finished.delay()

在這個函數(shù)里,我們設置了 30s 的休眠,所以在 30s 內(nèi)我們打印結果可以看到 res2.ready() 是為 False 的:

print(res2.ready())

獲取task id

每個被執(zhí)行的 task 都有各自對應的 id 作為它們的唯一鍵:

print(res.id)

查看任務執(zhí)行的狀態(tài)

# 任務執(zhí)行是否失敗,返回 布爾型數(shù)據(jù)is_failed = res.failed()# 任務執(zhí)行是否成功,返回布爾型數(shù)據(jù)is_successful = res.successful()# 執(zhí)行的任務所處的狀態(tài)state = res.state# state 的值會在 PENDING,STARTED,SUCCESS,RETRY,F(xiàn)AILURE 這幾種狀態(tài)中,分別是 待處理中,任務已經(jīng)開始,成功,重試中,失敗

報錯處理

如果執(zhí)行的延時任務在程序中報錯,比如我們定義的 div() 函數(shù),我們傳入的除數(shù)為 0 的話,在程序中是會報錯的,我們使用 get() 來獲取結果的話程序是會報錯的:

res3 = div.delay(3, 0)res3.get()# 返回會報錯

但是我們可以使用 propagate=False 參數(shù)來忽略程序的報錯:

res3.get(propagate=False)

這樣我們獲取的就不是程序報錯,而是程序報錯的信息作為結果返回

使用 res3.state 發(fā)現(xiàn)返回的結果是 FAILURE

當延時任務在程序中報錯,它的返回值就不會是正確的,我們可以通過 res3.traceback 是否有值來判斷函數(shù)運行過程中是有報錯:

if res3.traceback:    print("延時任務報錯")else:    print("程序正常運行,可以獲取返回值")

result資源釋放

因為 backend 會使用資源來保存和傳輸結果,為了確保資源被釋放,所以在執(zhí)行完異步任務后,你必須對每一個結果調(diào)用 get() 或者 forget() 函數(shù)

result.get() 函數(shù)獲取結果

result.forget() 在 backend 刪掉該數(shù)據(jù)

在官方文檔上,意思是 get() 和 forget() 方法都可以釋放資源,但是經(jīng)過我測試,貌似只有 forget() 函數(shù)會釋放資源

查看是否資源被釋放也很簡單,登錄到對應的 backend,我這里是 redis,使用 redis-cli 或者通過 docker 進入 redis:

select 1keys*

查看相應的 task id 是否還在列表就可以知道該資源是否被釋放

如果不想手動釋放資源,可以在配置里設置一個過期時間,那么結果就會在指定時間段后被釋放:

app.conf.update(result_expires=60)

這個我們可以在后面的配置里再詳細介紹。

以上就是本篇筆記全部內(nèi)容,下一篇筆記我們將介紹如何建立一個 celery 項目、配置的幾種方法及一些基本的配置。

如果想獲取更多后端相關文章,可掃碼關注閱讀:

標簽:

推薦

財富更多》

動態(tài)更多》

熱點