很多个人站长的内容数据都是采集过来的,采集过的内容具有很高的重复性,
时期变移,搜索引擎对内容的哀求越来越高,最好的内容便是人工编辑,但这并不现实,
有能力的常日过技能去实现,理论知识可以参考之前发过的内容《内容:采集和处理方案》。
这里借用dedeCMS,来给大家实例解释,给出一个可落地方案。
这一篇,只是说标题的伪原创。
事理:[原标题]-干系搜索词1,干系搜索词2
如:一条财经新闻,采集过来
原标题是:
解码创业板七周年:总市值增逾38倍 近97%公司股价上涨
在百度干系搜索词:
股价上涨对公司的好处
ea公司最近一周股价
资金流出为何股价上涨
主力资金流出股价上涨
随机抽取两个干系词,加到原来标题,做伪原创。
伪原创后的标题变成
[解码创业板七周年:总市值增逾38倍 近97%公司股价上涨]_资金流出为何股价上涨,主力资金流出股价上涨
这里只是举例子的论理。
下面先容在 dedeCMS上,如何实现。
个中两个部份
自定义标签,浸染:根据文章题标去抓百度的干系搜索,个中涉及到一些php知识。
在dede模板上调用标签。
自定义标签
dede自定标签文件位置:网站目录\include\taglib
我们自定标签:newkw 标签
在 网站目录\include\taglib 目录下,建一个文件:newkw.lib.php
newkw.lib.php的代码内容:
--------------------------------------------------------
<?php
if(!defined('DEDEINC')) exit('Request Error!');
/
dede CMS版本 :DedeCMSV57_GBK_SP1
文章列自定义2016-10-30 newky by方法营销 微信:emways
把稳:这里是GBK版本;UTF8,可能会乱码,自已想办法
/
function lib_newkw(&$ctag,&$refObj){
$kw= $refObj->Fields['title'];//获取标提
//$kwurl= trim($ctag->GetAtt('title'));
$kw=rawurlencode($kw);
$url='http://www.baidu.com/s?wd='.$kw;
$comtxt=file_get_contents($url);
//提出干系搜索内容
preg_match_all('(<th><a.?<\/a><\/th>)ims',$comtxt,$comtxts_2);
//取前5个记录,组成数组
for ($x=0; $x<5; $x++) {
$comtxts_3[$x]=str_replace('</a></th>','',$comtxts_2[0][$x]);
//$comtxts_3[$x]=str_replace('data-type=\"大众0\"大众>','',$comtxts_3[$x]);
$comtxts_3[$x]=preg_replace(\公众/<th><a href=\\公众.?\\"大众>/\"大众,'',$comtxts_3[$x]);
$comtxts_3[$x]=iconv(\"大众UTF-8\公众, \"大众GB2312//IGNORE\公众,$comtxts_3[$x]) ;
}
//数组重新排序
shuffle($comtxts_3);
//取前2条
echo $comtxts_3[0].','.$comtxts_3[1];
return $kkeyword;
}
?>
-------------------------------------------------------
2.在dede模板上调用标签:{dede:newkw /}
在title上加入 {dede:newkw /},
如:<title>[{dede:field.title/}]_{dede:newkw /}</title>
如果不懂dede模板是什么,请飘过~~
关于dedeCMS,自动化内容伪原创,往后再写一篇,请关注留神,感激!
(来源方法营销:微信emways)