国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

mysql中longtext存在大量數據時,會導致查詢很慢?

瀏覽:104日期:2022-06-16 18:07:22

問題描述

一個表,1.5w條數據,字段: id,name,content,last_update_timeid,自定義主鍵name,varchar類型content是longtext類型,last_update_time為datetime類型,不為空

content當中是文本和代碼等,平均長度在20k+。

case1: select id, name from t order by last_update_time limit 10000, 10

當content當中有大量的文本時,case1的效率極慢。

及時給 last_update_time 加上btree索引, 效率有提升,但是依然慢

把content一列刪掉,效率很高。毫秒級別。

使用explain:有content時結果:

mysql> explain select id, name, last_update_time from t order by last_update_time desc limit 11120, 11;+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+| 1 | SIMPLE | t | index | NULL | idx_last_update_time | 8 | NULL | 11131 | NULL |+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+

無content列的結果:

+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+| 1 | SIMPLE | t2 | ALL | NULL | NULL | NULL | NULL | 15544 | Using filesort |+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+1 row in set (0.00 sec)

請大神請教,是什么問題?該怎么優化?

問題解答

回答1:

無content的時候,查詢走的是idx_last_update_time,我猜測這個索引中包含了id,name字段,因此僅通過索引就可以獲取到所需的數據,因此速度很快。有content的時候,因為有limit 10000的語句,且無法從索引中獲取content字段的內容,因此采用的全表掃描的方法。建議改寫sql語句,讓數據庫的執行計劃更充分使用索引,假設id是主鍵:

select id, name, content from twhere id in ( select id from t order by last_update_time limit 10000, 10)回答2:

content當中是文本和代碼等,平均長度在20k+。

這種應該建立全文索引(FUNLLTEXT INDEX)吧。簡單的索引不適合這種超長文本的字段。

回答3:

我覺得,主要跟你的分頁查詢的方式有關,limit 10000,10 這個意思是掃描滿足條件的10010條數據,扔掉前面的10000行,返回最后的10行,在加上你的表中有個,非常大的字段,這樣必然增加數據庫查詢的i/o時間,查詢優化你可以參照 @邢愛明 的SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY last_update_time limit 10000, 10); 還有一種優化方式:你可以記錄最后的last_update_time 每次最后的值。然后查詢可以這樣寫:SELECT * FROM items WHERE last_update_time > '最后記錄的值' order by last_update_time limit 0,10;

這兩種方式你可以執行看看那個效率高,希望對你有幫助。。

主站蜘蛛池模板: 国产精品视频免费 | www.久草.com | 成人国产一区二区三区 | 99热久久国产综合精品久久国产 | 中文字幕在线一区二区在线 | 国产日韩欧美精品在线 | 久久经典视频 | 香蕉成人 | 高清一区二区在线观看 | 欧美激情免费观看一区 | 乱淫67194 | 欧美在线视频免费 | 亚洲一区天堂 | 99久久精品毛片免费播放 | 手机看片国产免费永久 | 美女黄频免费看 | a毛片成人免费全部播放 | www.亚洲视频 | 亚洲精品不卡久久久久久 | 国产成人精品福利网站在线 | 久久国产精品-国产精品 | 久久精品久久久久 | 玖玖在线国产精品 | 精品国产一区二区三区不卡在线 | 国产成人精品亚洲 | 欧美亚洲国产片在线观看 | 中文字幕无线精品乱码一区 | 在线观看免费视频网站色 | 成人毛片免费播放 | 黄色三级网络 | 精品伊人久久久久7777人 | 成人毛片在线 | 亚洲欧美一区二区三区在线 | 成人免费影视网站 | 日本精品国产 | 波多野结衣一区二区 三区 波多野结衣一区二区三区88 | 99久久精品免费观看区一 | 亚洲网址在线 | 亚洲综合色一区二区三区小说 | 亚洲美女视频 | 欧美性久久久久 |