導航:首頁 > 編程語言 > php消息列隊

php消息列隊

發布時間:2025-04-01 12:53:55

1. php實現消息隊列MQ

MQ的應用場景主要解決非同步消息、應用解耦、流量消峰等問題,同時也常用於日誌處理。然而,MQ的引入導致系統可用性降低,因為系統需要考慮消息隊列的可靠性,避免系統因消息隊列故障而宕機。此外,MQ的引入增加了系統復雜性,需要處理一致性問題、防止消息重復消費和確保消息可靠傳輸。



對於消息重復消費的問題,解決方法如下:




消息模型分為P2P模式(點對點模式)和Pub/Sub(發布訂閱模式)。P2P模式下,一個消息只能被一個消費者處理,包含消息隊列、發送者和接受者三個角色。Work模式又分為輪循隊列(一對多)和能者多勞(一對多)兩種,每個消息只有一個消費者。發送者和接受者之間沒有時間依賴性,接受者確認消息的接受和處理。



Pub/Sub模式下,包含主題、發布者和訂閱者三個角色,一個生產者可以向多個消費者發送消息,消息經過交換機到達隊列。Exchange(轉發器)負責接受生產者的消息並將其推送到隊列,實現一個消息被多個消費者消費。此外,還有Direct(路由模式)、Fanout(訂閱模式)等模式。



在PHP中實現消息隊列,首先需要安裝RabbitMQ擴展,並在項目中添加Composer.json文件以整合RabbitMQ。實現包括簡單模式(一對一)、Work模式(輪循隊列)、Work模式(能者多勞)、每個消息只有一個消費者、發送者和接受者沒有時間依賴、接受者確認消息接受和處理成功。



Pub/Sub模式在RabbitMQ中實現松耦合設計,通過主題、發布者和訂閱者進行消息的發布與訂閱。消息的持久化處理包括消息的可靠性機制、自動刪除隊列和交換機的設置以及消息確認機制。RabbitMQ的消息確認機制可以採用事務機制或Confirm機制,確保消息的可靠傳輸。



以上內容旨在幫助PHP開發者理解和實現消息隊列的功能。更多進階資料,包括分布式架構、高可擴展性、高性能、高並發、伺服器性能調優、TP6、Laravel、YII2、Redis、Swoole、Swoft、Kafka、Mysql優化、Shell腳本、Docker、微服務、Nginx等知識點的高級進階干貨,可關注公眾號「PHP開源社區」或訪問相關鏈接獲取更多資源。

2. 延時 (遲) 操作的 PHP 簡單實現

在業務中,遇到延遲操作需求,比如下單半小時未支付取消訂單,或下單十五分鍾後未支付發簡訊提醒等場景。本文將介紹幾種實現方式。

實現方式分為幾種,首先,執行處理腳本在下單後定時運行,這種方式簡潔但不優雅,且在處理大量訂單時可能遇到性能瓶頸。

第二種方式是利用消費邏輯,在消費者中處理延遲操作,通過啟動生產消息與消費者等待,這種方式利用現有服務,減少開發時間。

第三種方式引入消息隊列如RabbitMQ。消費者啟動,通過生產者啟動消息,消息先入隊列,過期後進入死信隊列被消費,流轉過程清晰可見。

第四種方式,參考原文「延時(遲)操作的PHP簡單實現」,提供進階PHP學習資源,包括分布式架構、高並發、高性能等知識點,助力PHP開發者提升技能。

希望以上內容能幫助大家解決業務中遇到的延遲操作問題,推動PHP開發者在進階道路上成長。

3. php+redis消息隊列實現搶購功能

在高並發環境下,通過PHP和Redis消息隊列實現搶購功能,可以有效防止超賣情況,具體實現流程如下

  1. 初始化Redis庫存隊列

    • 管理員根據MySQL資料庫中goods表的庫存信息,在Redis中創建一個對應商品的庫存隊列。這個隊列中的元素數量代表該商品的可用庫存數量。
  2. 查詢Redis庫存隊列

    • 當用戶訪問秒殺API時,伺服器首先會從Redis的商品庫存隊列中查詢剩餘庫存。這一步操作快速且高效,因為Redis作為內存資料庫,讀寫速度非常快。
  3. 處理搶購請求

    • 庫存充足時:如果Redis庫存隊列中有剩餘庫存,伺服器會執行以下操作:
      • 在MySQL資料庫中開始一個事務。
      • 查詢對應商品的庫存。
      • 生成訂單信息並插入到資料庫中。
      • 更新庫存信息。
      • 提交事務,釋放鎖。
      • 同時,從Redis庫存隊列中移除一個元素,以表示庫存減少。
      • 返回搶購成功信息給用戶。
    • 庫存不足時:如果Redis庫存隊列中無剩餘庫存,伺服器直接返回庫存不足信息給用戶,表示搶購失敗。
  4. 注意事項

    • 鎖的使用:在設置寫鎖時,需要謹慎操作,以避免造成死鎖。事務操作應盡量簡短,以減少鎖持有的時間。
    • Redis與MySQL數據一致性:由於Redis作為緩存使用,其數據需要與MySQL資料庫中的數據保持同步。在實際應用中,可能需要通過一些機制來確保兩者之間的數據一致性。

通過上述流程,利用Redis消息隊列的高並發處理能力和MySQL事務的原子性、隔離性特性,可以有效實現搶購功能並防止超賣情況的發生。

4. 大型的 PHP應用 通常使用什麼應用做 消息隊列 的

一、消息隊列概述
消息隊列中間件是分布式系統中重要的組件,主要解決應用耦合,非同步消息,流量削鋒等問題。實現高性能,高可用,可伸縮和最終一致性架構。是大型分布式系統不可缺少的中間件。
目前在生產環境,使用較多的消息隊列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等。
二、消息隊列應用場景
以下介紹消息隊列在實際應用中常用的使用場景。非同步處理,應用解耦,流量削鋒和消息通訊四個場景。
2.1非同步處理
場景說明:用戶注冊後,需要發注冊郵件和注冊簡訊。傳統的做法有兩種1.串列的方式;2.並行方式。
(1)串列方式:將注冊信息寫入資料庫成功後,發送注冊郵件,再發送注冊簡訊。以上三個任務全部完成後,返回給客戶端。(架構KKQ:466097527,歡迎加入)
(2)並行方式:將注冊信息寫入資料庫成功後,發送注冊郵件的同時,發送注冊簡訊。以上三個任務完成後,返回給客戶端。與串列的差別是,並行的方式可以提高處理的時間。
假設三個業務節點每個使用50毫秒鍾,不考慮網路等其他開銷,則串列方式的時間是150毫秒,並行的時間可能是100毫秒。
因為CPU在單位時間內處理的請求數是一定的,假設CPU1秒內吞吐量是100次。則串列方式1秒內CPU可處理的請求量是7次(1000/150)。並行方式處理的請求量是10次(1000/100)。
小結:如以上案例描述,傳統的方式系統的性能(並發量,吞吐量,響應時間)會有瓶頸。如何解決這個問題呢?
引入消息隊列,將不是必須的業務邏輯,非同步處理。改造後的架構如下:
按照以上約定,用戶的響應時間相當於是注冊信息寫入資料庫的時間,也就是50毫秒。注冊郵件,發送簡訊寫入消息隊列後,直接返回,因此寫入消息隊列的速度很快,基本可以忽略,因此用戶的響應時間可能是50毫秒。因此架構改變後,系統的吞吐量提高到每秒20 QPS。比串列提高了3倍,比並行提高了兩倍。
2.2應用解耦
場景說明:用戶下單後,訂單系統需要通知庫存系統。傳統的做法是,訂單系統調用庫存系統的介面。如下圖:
傳統模式的缺點:
1) 假如庫存系統無法訪問,則訂單減庫存將失敗,從而導致訂單失敗;
2) 訂單系統與庫存系統耦合;
如何解決以上問題呢?引入應用消息隊列後的方案,如下圖:
訂單系統:用戶下單後,訂單系統完成持久化處理,將消息寫入消息隊列,返回用戶訂單下單成功。
庫存系統:訂閱下單的消息,採用拉/推的方式,獲取下單信息,庫存系統根據下單信息,進行庫存操作。
假如:在下單時庫存系統不能正常使用。也不影響正常下單,因為下單後,訂單系統寫入消息隊列就不再關心其他的後續操作了。實現訂單系統與庫存系統的應用解耦。
2.3流量削鋒
流量削鋒也是消息隊列中的常用場景,一般在秒殺或團搶活動中使用廣泛。
應用場景:秒殺活動,一般會因為流量過大,導致流量暴增,應用掛掉。為解決這個問題,一般需要在應用前端加入消息隊列。
可以控制活動的人數;
可以緩解短時間內高流量壓垮應用;
用戶的請求,伺服器接收後,首先寫入消息隊列。假如消息隊列長度超過最大數量,則直接拋棄用戶請求或跳轉到錯誤頁面;
秒殺業務根據消息隊列中的請求信息,再做後續處理。
2.4日誌處理
日誌處理是指將消息隊列用在日誌處理中,比如Kafka的應用,解決大量日誌傳輸的問題。架構簡化如下:
日誌採集客戶端,負責日誌數據採集,定時寫受寫入Kafka隊列;
Kafka消息隊列,負責日誌數據的接收,存儲和轉發;
日誌處理應用:訂閱並消費kafka隊列中的日誌數據;
以下是新浪kafka日誌處理應用案例:
(1)Kafka:接收用戶日誌的消息隊列。
(2)Logstash:做日誌解析,統一成JSON輸出給Elasticsearch。
(3)Elasticsearch:實時日誌分析服務的核心技術,一個schemaless,實時的數據存儲服務,通過index組織數據,兼具強大的搜索和統計功能。
(4)Kibana:基於Elasticsearch的數據可視化組件,超強的數據可視化能力是眾多公司選擇ELK stack的重要原因。
2.5消息通訊
消息通訊是指,消息隊列一般都內置了高效的通信機制,因此也可以用在純的消息通訊。比如實現點對點消息隊列,或者聊天室等。
點對點通訊:
客戶端A和客戶端B使用同一隊列,進行消息通訊。
聊天室通訊:
客戶端A,客戶端B,客戶端N訂閱同一主題,進行消息發布和接收。實現類似聊天室效果。
以上實際是消息隊列的兩種消息模式,點對點或發布訂閱模式。模型為示意圖,供參考。
三、消息中間件示例
3.1電商系統
消息隊列採用高可用,可持久化的消息中間件。比如Active MQ,Rabbit MQ,Rocket Mq。(1)應用將主幹邏輯處理完成後,寫入消息隊列。消息發送是否成功可以開啟消息的確認模式。(消息隊列返回消息接收成功狀態後,應用再返回,這樣保障消息的完整性)
(2)擴展流程(發簡訊,配送處理)訂閱隊列消息。採用推或拉的方式獲取消息並處理。
(3)消息將應用解耦的同時,帶來了數據一致性問題,可以採用最終一致性方式解決。比如主數據寫入資料庫,擴展應用根據消息隊列,並結合資料庫方式實現基於消息隊列的後續處理。
3.2日誌收集系統
分為Zookeeper注冊中心,日誌收集客戶端,Kafka集群和Storm集群(OtherApp)四部分組成。
Zookeeper注冊中心,提出負載均衡和地址查找服務;
日誌收集客戶端,用於採集應用系統的日誌,並將數據推送到kafka隊列;
四、JMS消息服務
講消息隊列就不得不提JMS 。JMS(Java Message Service,Java消息服務)API是一個消息服務的標准/規范,允許應用程序組件基於JavaEE平台創建、發送、接收和讀取消息。它使分布式通信耦合度更低,消息服務更加可靠以及非同步性。
在EJB架構中,有消息bean可以無縫的與JM消息服務集成。在J2EE架構模式中,有消息服務者模式,用於實現消息與應用直接的解耦。
4.1消息模型
在JMS標准中,有兩種消息模型P2P(Point to Point),Publish/Subscribe(Pub/Sub)。
4.1.1 P2P模式
P2P模式包含三個角色:消息隊列(Queue),發送者(Sender),接收者(Receiver)。每個消息都被發送到一個特定的隊列,接收者從隊列中獲取消息。隊列保留著消息,直到他們被消費或超時。
P2P的特點
每個消息只有一個消費者(Consumer)(即一旦被消費,消息就不再在消息隊列中)
發送者和接收者之間在時間上沒有依賴性,也就是說當發送者發送了消息之後,不管接收者有沒有正在運行,它不會影響到消息被發送到隊列
接收者在成功接收消息之後需向隊列應答成功
如果希望發送的每個消息都會被成功處理的話,那麼需要P2P模式。(架構KKQ:466097527,歡迎加入)
4.1.2 Pub/sub模式
包含三個角色主題(Topic),發布者(Publisher),訂閱者(Subscriber) 。多個發布者將消息發送到Topic,系統將這些消息傳遞給多個訂閱者。
Pub/Sub的特點
每個消息可以有多個消費者
發布者和訂閱者之間有時間上的依賴性。針對某個主題(Topic)的訂閱者,它必須創建一個訂閱者之後,才能消費發布者的消息。
為了消費消息,訂閱者必須保持運行的狀態。
為了緩和這樣嚴格的時間相關性,JMS允許訂閱者創建一個可持久化的訂閱。這樣,即使訂閱者沒有被激活(運行),它也能接收到發布者的消息。
如果希望發送的消息可以不被做任何處理、或者只被一個消息者處理、或者可以被多個消費者處理的話,那麼可以採用Pub/Sub模型。
4.2消息消費
在JMS中,消息的產生和消費都是非同步的。對於消費來說,JMS的消息者可以通過兩種方式來消費消息。
(1)同步
訂閱者或接收者通過receive方法來接收消息,receive方法在接收到消息之前(或超時之前)將一直阻塞;
(2)非同步
訂閱者或接收者可以注冊為一個消息監聽器。當消息到達之後,系統自動調用監聽器的onMessage方法。
JNDI:Java命名和目錄介面,是一種標準的Java命名系統介面。可以在網路上查找和訪問服務。通過指定一個資源名稱,該名稱對應於資料庫或命名服務中的一個記錄,同時返回資源連接建立所必須的信息。
JNDI在JMS中起到查找和訪問發送目標或消息來源的作用。(架構KKQ:466097527,歡迎加入)
4.3JMS編程模型
(1) ConnectionFactory
創建Connection對象的工廠,針對兩種不同的jms消息模型,分別有QueueConnectionFactory和TopicConnectionFactory兩種。可以通過JNDI來查找ConnectionFactory對象。
(2) Destination
Destination的意思是消息生產者的消息發送目標或者說消息消費者的消息來源。對於消息生產者來說,它的Destination是某個隊列(Queue)或某個主題(Topic);對於消息消費者來說,它的Destination也是某個隊列或主題(即消息來源)。
所以,Destination實際上就是兩種類型的對象:Queue、Topic可以通過JNDI來查找Destination。
(3) Connection
Connection表示在客戶端和JMS系統之間建立的鏈接(對TCP/IP socket的包裝)。Connection可以產生一個或多個Session。跟ConnectionFactory一樣,Connection也有兩種類型:QueueConnection和TopicConnection。
(4) Session
Session是操作消息的介面。可以通過session創建生產者、消費者、消息等。Session提供了事務的功能。當需要使用session發送/接收多個消息時,可以將這些發送/接收動作放到一個事務中。同樣,也分QueueSession和TopicSession。
(5) 消息的生產者
消息生產者由Session創建,並用於將消息發送到Destination。同樣,消息生產者分兩種類型:QueueSender和TopicPublisher。可以調用消息生產者的方法(send或publish方法)發送消息。
(6) 消息消費者
消息消費者由Session創建,用於接收被發送到Destination的消息。兩種類型:QueueReceiver和TopicSubscriber。可分別通過session的createReceiver(Queue)或createSubscriber(Topic)來創建。當然,也可以session的creatDurableSubscriber方法來創建持久化的訂閱者。
(7) MessageListener
消息監聽器。如果注冊了消息監聽器,一旦消息到達,將自動調用監聽器的onMessage方法。EJB中的MDB(Message-Driven Bean)就是一種MessageListener。
深入學習JMS對掌握JAVA架構,EJB架構有很好的幫助,消息中間件也是大型分布式系統必須的組件。本次分享主要做全局性介紹,具體的深入需要大家學習,實踐,總結,領會。
五、常用消息隊列
一般商用的容器,比如WebLogic,JBoss,都支持JMS標准,開發上很方便。但免費的比如Tomcat,Jetty等則需要使用第三方的消息中間件。本部分內容介紹常用的消息中間件(Active MQ,Rabbit MQ,Zero MQ,Kafka)以及他們的特點。
5.1 ActiveMQ
ActiveMQ 是Apache出品,最流行的,能力強勁的開源消息匯流排。ActiveMQ 是一個完全支持JMS1.1和J2EE 1.4規范的 JMS Provider實現,盡管JMS規范出台已經是很久的事情了,但是JMS在當今的J2EE應用中間仍然扮演著特殊的地位。
ActiveMQ特性如下:
⒈ 多種語言和協議編寫客戶端。語言: Java,C,C++,C#,Ruby,Perl,Python,PHP。應用協議: OpenWire,Stomp REST,WS Notification,XMPP,AMQP
⒉ 完全支持JMS1.1和J2EE 1.4規范 (持久化,XA消息,事務)
⒊ 對spring的支持,ActiveMQ可以很容易內嵌到使用Spring的系統裡面去,而且也支持Spring2.0的特性
⒋ 通過了常見J2EE伺服器(如 Geronimo,JBoss 4,GlassFish,WebLogic)的測試,其中通過JCA 1.5 resource adaptors的配置,可以讓ActiveMQ可以自動的部署到任何兼容J2EE 1.4 商業伺服器上
⒌ 支持多種傳送協議:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA
⒍ 支持通過JDBC和journal提供高速的消息持久化
⒎ 從設計上保證了高性能的集群,客戶端-伺服器,點對點
⒏ 支持Ajax
⒐ 支持與Axis的整合
⒑ 可以很容易得調用內嵌JMS provider,進行測試
5.2 RabbitMQ
RabbitMQ是流行的開源消息隊列系統,用erlang語言開發。RabbitMQ是AMQP(高級消息隊列協議)的標准實現。支持多種客戶端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX,持久化。用於在分布式系統中存儲轉發消息,在易用性、擴展性、高可用性等方面表現不俗。
幾個重要概念:
Broker:簡單來說就是消息隊列伺服器實體。
Exchange:消息交換機,它指定消息按什麼規則,路由到哪個隊列。
Queue:消息隊列載體,每個消息都會被投入到一個或多個隊列。
Binding:綁定,它的作用就是把exchange和queue按照路由規則綁定起來。
Routing Key:路由關鍵字,exchange根據這個關鍵字進行消息投遞。
vhost:虛擬主機,一個broker里可以開設多個vhost,用作不同用戶的許可權分離。
procer:消息生產者,就是投遞消息的程序。
consumer:消息消費者,就是接受消息的程序。
channel:消息通道,在客戶端的每個連接里,可建立多個channel,每個channel代表一個會話任務。
消息隊列的使用過程,如下:
(1)客戶端連接到消息隊列伺服器,打開一個channel。
(2)客戶端聲明一個exchange,並設置相關屬性。
(3)客戶端聲明一個queue,並設置相關屬性。
(4)客戶端使用routing key,在exchange和queue之間建立好綁定關系。
(5)客戶端投遞消息到exchange。
exchange接收到消息後,就根據消息的key和已經設置的binding,進行消息路由,將消息投遞到一個或多個隊列里。
5.3 ZeroMQ
號稱史上最快的消息隊列,它實際類似於Socket的一系列介面,他跟Socket的區別是:普通的socket是端到端的(1:1的關系),而ZMQ卻是可以N:M 的關系,人們對BSD套接字的了解較多的是點對點的連接,點對點連接需要顯式地建立連接、銷毀連接、選擇協議(TCP/UDP)和處理錯誤等,而ZMQ屏蔽了這些細節,讓你的網路編程更為簡單。ZMQ用於node與node間的通信,node可以是主機或者是進程。
引用官方的說法: 「ZMQ(以下ZeroMQ簡稱ZMQ)是一個簡單好用的傳輸層,像框架一樣的一個socket library,他使得Socket編程更加簡單、簡潔和性能更高。是一個消息處理隊列庫,可在多個線程、內核和主機盒之間彈性伸縮。ZMQ的明確目標是「成為標准網路協議棧的一部分,之後進入Linux內核」。現在還未看到它們的成功。但是,它無疑是極具前景的、並且是人們更加需要的「傳統」BSD套接字之上的一 層封裝。ZMQ讓編寫高性能網路應用程序極為簡單和有趣。」
特點是:
高性能,非持久化;
跨平台:支持Linux、Windows、OS X等。
多語言支持; C、C++、Java、.NET、Python等30多種開發語言。
可單獨部署或集成到應用中使用;
可作為Socket通信庫使用。
與RabbitMQ相比,ZMQ並不像是一個傳統意義上的消息隊列伺服器,事實上,它也根本不是一個伺服器,更像一個底層的網路通訊庫,在Socket API之上做了一層封裝,將網路通訊、進程通訊和線程通訊抽象為統一的API介面。支持「Request-Reply 「,」Publisher-Subscriber「,」Parallel Pipeline」三種基本模型和擴展模型。
ZeroMQ高性能設計要點:
1、無鎖的隊列模型
對於跨線程間的交互(用戶端和session)之間的數據交換通道pipe,採用無鎖的隊列演算法CAS;在pipe兩端注冊有非同步事件,在讀或者寫消息到pipe的時,會自動觸發讀寫事件。
2、批量處理的演算法
對於傳統的消息處理,每個消息在發送和接收的時候,都需要系統的調用,這樣對於大量的消息,系統的開銷比較大,zeroMQ對於批量的消息,進行了適應性的優化,可以批量的接收和發送消息。
3、多核下的線程綁定,無須CPU切換
區別於傳統的多線程並發模式,信號量或者臨界區, zeroMQ充分利用多核的優勢,每個核綁定運行一個工作者線程,避免多線程之間的CPU切換開銷。
5.4 Kafka
Kafka是一種高吞吐量的分布式發布訂閱消息系統,它可以處理消費者規模的網站中的所有動作流數據。 這種動作(網頁瀏覽,搜索和其他用戶的行動)是在現代網路上的許多社會功能的一個關鍵因素。 這些數據通常是由於吞吐量的要求而通過處理日誌和日誌聚合來解決。 對於像Hadoop的一樣的日誌數據和離線分析系統,但又要求實時處理的限制,這是一個可行的解決方案。Kafka的目的是通過Hadoop的並行載入機制來統一線上和離線的消息處理,也是為了通過集群機來提供實時的消費。
Kafka是一種高吞吐量的分布式發布訂閱消息系統,有如下特性:
通過O(1)的磁碟數據結構提供消息的持久化,這種結構對於即使數以TB的消息存儲也能夠保持長時間的穩定性能。(文件追加的方式寫入數據,過期的數據定期刪除)
高吞吐量:即使是非常普通的硬體Kafka也可以支持每秒數百萬的消息。
支持通過Kafka伺服器和消費機集群來分區消息。
支持Hadoop並行數據載入。
Kafka相關概念
Broker
Kafka集群包含一個或多個伺服器,這種伺服器被稱為broker[5]
Topic
每條發布到Kafka集群的消息都有一個類別,這個類別被稱為Topic。(物理上不同Topic的消息分開存儲,邏輯上一個Topic的消息雖然保存於一個或多個broker上但用戶只需指定消息的Topic即可生產或消費數據而不必關心數據存於何處)
Partition
Parition是物理上的概念,每個Topic包含一個或多個Partition.
Procer
負責發布消息到Kafka broker
Consumer
消息消費者,向Kafka broker讀取消息的客戶端。
Consumer Group
每個Consumer屬於一個特定的Consumer Group(可為每個Consumer指定group name,若不指定group name則屬於默認的group)。
一般應用在大數據日誌處理或對實時性(少量延遲),可靠性(少量丟數據)要求稍低的場景使用。

5. 如何使用php、html及消息隊列實現訂單超時自動關閉訂單

  1. 從php腳本方面解決的話,那就是每分鍾用ajax請求一次php腳本,檢查訂單狀態和當前時間,30分鍾後檢查到訂單無異,測php更新訂單到關閉狀態,這個地方需要用到setTimeout了,循環執行請求,但是缺點是頁面必能關閉,關閉了js就不執行,所以這個方法不太可取,30分鍾時間太長,不可能不進行其他頁面行為。

  2. 使用Mysql 定時計劃任務(推薦你使用),語法體

createeventmyevent
onscheleatcurrent_timestamp+interval1hour(周期或者時間點)
do
updatemyschema.mytablesetmycol=mycol+1;(執行的sql

詳細使用可以參考:https://segmentfault.com/a/1190000005142597,很清楚

6. 在php隊列php-resque里頭使用了資料庫的單例模式顯示MySQL server has gone away

PHP的輕量消息隊列php-resque使用說明
消息隊列處理後台任務帶來的問題
項目中經常會有後台運行任務的需求,比如發送郵件時,因為要連接郵件伺服器,往往需要5-10秒甚至更長時間,如果能先給用戶一個成功的提示信息,然後在後台慢慢處理發送郵件的操作,顯然會有更好的用戶體驗。
為了實現類似的需求,Web項目中一般的實現方法是使用消息隊列(Message Queue),比如MemcacheQ,RabbitMQ等等,都是很著名的產品。
消息隊列說白了就是一個最簡單的先進先出隊列,隊列的一個成員就是一段文本。正是因為消息隊列實在太簡單了,當拿著消息隊列時,反而有點無從下手的感覺,因為這僅僅一個發送郵件的任務,就會引申出很多問題:
消息隊列只能存儲字元串類型的數據,如何將一個發送郵件這樣的「任務」,轉換為消息隊列中的一個「消息」?
消息隊列只負責數據的存放與進出,本身不能執行任何程序,那麼我們要如何從消息隊列中一個一個取出數據,再將這些數據轉化回任務並執行。
我們無法預知消息隊列何時會有數據產生,所以我們的任務執行程序還需要具備監控消息隊列的能力,也就是一個常駐後台的守護進程。
一般的Web應用PHP都以cgi方式運行,無法常駐內存。我們知道php還有cli模式,那麼守護進程是否能以php cli來實現,效率如何?
當守護進程運行時,Web應用能否與後台守護進程交互,實現開啟/殺死進程的功能以及獲得進程的運行狀態?
Resque對後台任務的設計與角色劃分
對以上這些問題,目前為止我能找到的最好答案,並不是來自php,而是來自Ruby的項目Resque,正是由於Resque清晰簡單的解決了後台任務帶來的一系列問題,Resque的設計也被Clone到Python、php、NodeJs等語言:比如Python下的pyres以及PHP下的php-resque等等,這里有各種語言版本的Resque實現,而在本篇日誌里,我們當然要以PHP版本為例來說明如何用php-resque運行一個後台任務,可能一些細節方面會與Ruby版有出入,但是本文中以php版為准。
Resque是這樣解決這些問題的:
後台任務的角色劃分
其實從上面的問題已經可以看出,只靠一個消息隊列是無法解決所有問題的,需要新的角色介入。在Resque中,一個後台任務被抽象為由三種角色共同完成:
Job | 任務 : 一個Job就是一個需要在後台完成的任務,比如本文舉例的發送郵件,就可以抽象為一個Job。在Resque中一個Job就是一個Class。
Queue | 隊列 : 也就是上文的消息隊列,在Resque中,隊列則是由Redis實現的。Resque還提供了一個簡單的隊列管理器,可以實現將Job插入/取出隊列等功能。
Worker | 執行者 : 負責從隊列中取出Job並執行,可以以守護進程的方式運行在後台。
那麼基於這個劃分,一個後台任務在Resque下的基本流程是這樣的:
將一個後台任務編寫為一個獨立的Class,這個Class就是一個Job。
在需要使用後台程序的地方,系統將Job Class的名稱以及所需參數放入隊列。
命令行方式開啟一個Worker,並通過參數指定Worker所需要處理的隊列。
Worker作為守護進程運行,並且定時檢查隊列。
當隊列中有Job時,Worker取出Job並運行,即實例化Job Class並執行Class中的方法。
至此就可以完整的運行完一個後台任務。
在Resque中,還有一個很重要的設計:一個Worker,可以處理一個隊列,也可以處理很多個隊列,並且可以通過增加Worker的進程/線程數來加快隊列的執行速度。
php-resque的安裝
需要提前說明的是,由於涉及到進程的開辟與管理,php-resque使用了php的PCNTL函數,所以只能在Linux下運行,並且需要php編譯PCNTL函數。如果希望用Windows做同樣的工作,那麼可以去找找Resque的其他語言版本,php在Windows下非常不適合做後台任務。
以Ubuntu12.04LTS為例,Ubuntu用apt安裝的php已經默認編譯了PCNTL函數,無需任何配置,以下指令均為root帳號安裝Redis
apt-get install redis-server
安裝Composer
apt-get install curl
cd /usr/local/bin
curl -s http://getcomposer.org/installer | phpchmod a+x composer.phar
alias composer='/usr/local/bin/composer.phar'
使用Composer安裝php-resque
假設web目錄在/opt/htdocs
apt-get install git git-core
cd /opt/htdocs
git clone git://github.com/chrisboulton/php-resque.gitcd php-resque
composer install
php-resque的使用
編寫一個Worker
其實php-resque已經給出了簡單的例子, demo/job.php文件就是一個最簡單的Job:
class PHP_Job
{
public function perform()
{
sleep(120);
fwrite(STDOUT, 'Hello!');
}
}
這個Job就是在120秒後向STDOUT輸出字元Hello!
在Resque的設計中,一個Job必須存在一個perform方法,Worker則會自動運行這個方法。
將Job插入隊列
php-resque也給出了最簡單的插入隊列實現 demo/queue.php:
if(empty($argv[1])) {
die('Specify the name of a job to add. e.g, php queue.php PHP_Job');}
require __DIR__ . '/init.php';
date_default_timezone_set('GMT');
Resque::setBackend('127.0.0.1:6379');
$args = array(
'time' => time(),
'array' => array(
'test' => 'test',
),
);
$jobId = Resque::enqueue('default', $argv[1], $args, true);echo "Queued job ".$jobId."\n\n";
在這個例子中,queue.php需要以cli方式運行,將cli接收到的第一個參數作為Job名稱,插入名為'default'的隊列,同時向屏幕輸出剛才插入隊列的Job Id。在終端輸入:
php demo/queue.php PHP_Job
結果可以看到屏幕上輸出:
Queued job 即Job已經添加成功。注意這里的Job名稱與我們編寫的Job Class名稱保持一致:PHP_Job查看Job運行情況
php-resque同樣提供了查看Job運行狀態的例子,直接運行:
php demo/check_status.php 可以看到輸出為:
Tracking status of . Press [break] to stop.
Status of is: 1我們剛才創建的Job狀態為1。在Resque中,一個Job有以下4種狀態:
Resque_Job_Status::STATUS_WAITING = 1; (等待)Resque_Job_Status::STATUS_RUNNING = 2; (正在執行)Resque_Job_Status::STATUS_FAILED = 3; (失敗)Resque_Job_Status::STATUS_COMPLETE = 4; (結束)因為沒有Worker運行,所以剛才創建的Job還是等待狀態。
運行Worker
這次我們直接編寫demo/resque.php:
<?php
date_default_timezone_set('GMT');
require 'job.php';
require '../bin/resque';
可以看到一個Worker至少需要兩部分:
可以直接包含Job類文件,也可以使用php的自動載入機制,指定好Job Class所在路徑並能實現自動載入包含Resque的默認Worker: bin/resque
在終端中運行:
QUEUE=default php demo/resque.php
前面的QUEUE部分是設置環境變數,我們指定當前的Worker只負責處理default隊列。也可以使用QUEUE=* php demo/resque.php
來處理所有隊列。
運行後輸出為
#!/usr/bin/env php
*** Starting worker
用ps指令檢查一下:
ps aux | grep resque
可以看到有一個php的守護進程已經在運行了
1000 4607 0.0 0.1 74816 11612 pts/3 S+ 14:52 0:00 php demo/resque.php再使用之前的檢查Job指令
php demo/check_status.php 2分鍾後可以看到
Status of is: 4任務已經運行完畢,同時屏幕上應該可以看到輸出的Hello!
至此我們已經成功的完成了一個最簡單的Resque實例的全部演示,更復雜的情況以及遺留的問題會在下一次的日誌中說明。

閱讀全文

與php消息列隊相關的資料

熱點內容
android照片旋轉90 瀏覽:482
支付寶解壓授權 瀏覽:332
壓縮視頻什麼格式好 瀏覽:535
蘭亭序pdf 瀏覽:36
深圳代理伺服器怎麼租 瀏覽:942
直方圖代碼python 瀏覽:717
畫程序員 瀏覽:266
伺服器建在水裡怎麼散熱 瀏覽:479
android50界面 瀏覽:517
杭州android招聘 瀏覽:575
phplinuxopenssl安裝 瀏覽:872
德陽php招聘 瀏覽:449
盲分離演算法性能指標 瀏覽:24
php工作日誌管理系統 瀏覽:746
swing項目源碼 瀏覽:444
能量平衡一期演算法 瀏覽:282
諾基亞通訊錄怎麼導入安卓 瀏覽:509
雲伺服器卡頓超級vps管理器 瀏覽:733
照片pdf格式轉換成JPG格式 瀏覽:113
手機解除設置加密鎖 瀏覽:597