mac 下安装MySQLdb模块

在mac下写Python脚本爬取数据,然后入库到MySQL。需要使用 MySQLdb模块。

先到这个网址下载模块

http://sourceforge.net/projects/mysql-python/

解压后用命令行进入目录

执行:
python setup.py build

提示:
sh: mysql_config: command not found

提示,我们找不到命令mysql_config
好吧,我电脑上的mysql_config在哪?不记得了。。。。
sudo find / -name mysql_config
找到了 /usr/local/mysql-5.6.17-osx10.7-x86_64/bin/mysql_config 在这…
编辑setup_posix.py文件 找到:
mysql_config.path = "mysql_config"
替换为:
mysql_config.path = "/usr/local/mysql-5.6.17-osx10.7-x86_64/bin/mysql_config"
或者更好的方法:
ln -s /usr/local/mysql-5.6.17-osx10.7-x86_64/bin/mysql_config /usr/bin/mysql_config

然后 python setup.py build 可以顺利的执行了。。

接下来:
suto python setup.py install

一切顺利。。。

好吧,进入python 试下安装成功否。

import MySQLdb
Traceback (most recent call last):
File "", line 1, in
File "MySQLdb/__init__.py", line 19, in

import _mysql
ImportError: dlopen(/Library/Python/2.7/site-packages/MySQL_python-1.2.4b4-py2.7-macosx-10.8-intel.egg/_mysql.so, 2): Library not loaded: libmysqlclient.18.dylib
Referenced from: /Library/Python/2.7/site-packages/MySQL_python-1.2.4b4-py2.7-macosx-10.8-intel.egg/_mysql.so
Reason: image not found

噢。。。引入库文件:libmysqlclient.18.dylib 失败。

好吧,来个软链
ln -s /usr/local/mysql-5.6.17-osx10.7-x86_64/lib/libmysqlclient.18.dylib /usr/lib/libmysqlclient.18.dylib

OK了,可以在 mac 下尽情的使用 MySQL数据库了。。。

Query语句优化基本思路和原则

在分析如何优化 MySQL Query 之前,我们需要先了解一下 Query 语句优化的基本思路和原则。一 般来说,Query 语句的优化思路和原则主要提现在以下几个方面:
1. 优化更需要优化的 Query;
2. 定位优化对象的性能瓶颈;
3. 明确的优化目标;
4. 从 Explain 入手;
5. 多使用 profile
6. 永远用小结果集驱动大的结果集;
7. 尽可能在索引中完成排序;
8. 只取出自己需要的 Columns;
9. 仅仅使用最有效的过滤条件;
10. 尽可能避免复杂的Join和子查询;
上面所列的几点信息,前面4点可以理解为 Query 优化的一个基本思路,后面部分则是我们优化中 的基本原则。
下面我们先针对 Query 优化的基本思路做一些简单的分析,理解为什么我们的 Query 优化到底该 如何进行。
优化更需要优化的 Query
为什么我们需要优化更需要优化的 Query?这个地球人都知道的“并不能成为问题的问题”我想就 并不需要我过多解释吧,哈哈。
那什么样的 Query 是更需要优化呢?对于这个问题我们需要从对整个系统的影响来考虑。什么 Query 的优化能给系统整体带来更大的收益,就更需要优化。一般来说,高并发低消耗(相对)的 Query 对整个系统的影响远比低并发高消耗的 Query 大。我们可以通过以下一个非常简单的案例分析来 充分说明问题。
假设有一个 Query 每小时执行 10000 次,每次需要 20 个 IO。另外一个 Query 每小时执行 10 次, 每次需要 20000 个 IO。
我们先通过 IO 消耗方面来分析。可以看出,两个 Query 每小时所消耗的 IO 总数目是一样的,都是 200000 IO/小时。假设我们优化第一个 Query,从20个IO降低到18个IO,也就是仅仅降低了 2 个IO, 则我们节省了 2 * 10000 = 20000 (IO/小时)。而如果希望通过优化第二个 Query 达到相同的效果, 我们必须要让每个 Query 减少 20000 / 10 = 2000 IO。我想大家都会相信让第一个 Query 节省 2 个 IO 远比第二个 Query 节省 2000 个 IO 来的容易。
其次,如果通过 CPU 方面消耗的比较,原理和上面的完全一样。只要让第一个 Query 稍微节省一 小块资源,就可以让整个系统节省出一大块资源,尤其是在排序,分组这些对CPU 消耗比较多的操作中 尤其突出。
最后,我们从对整个系统的影响来分析。一个频繁执行的高并发Query 的危险性比一个低并发的 Query 要大很多。当一个低并发的 Query 走错执行计划,所带来的影响主要只是该 Query 的请求者的 体验会变差,对整体系统的影响并不会特别的突出,之少还属于可控范围。但是,如果我们一个高并发 的 Query 走错了执行计划,那所带来的后可很可能就是灾难性的,很多时候可能连自救的机会都不给你 就会让整个系统 Crash 掉。曾经我就遇到这样一个案例,系统中一个并发度较高的 Query 语句走错执 行计划,系统顷刻间 Crash,甚至我都还没有反应过来是怎么回事。当重新启动数据库提供服务后,系 统负载立刻直线飙升,甚至都来不及登录数据库查看当时有哪些 Active 的线程在执行哪些 Query。如 果是遇到一个并发并不太高的 Query 走错执行计划,至少我们还可以控制整个系统不至于系统被直接压 跨,甚至连问题根源都难以抓到。
定位优化对象的性能瓶颈
当我们拿到一条需要优化的 Query 之后,第一件事情是什么?是反问自己,这条 Query 有什么问 题?我为什么要优化他?只有明白了这些问题,我们才知道我们需要做什么,才能够找到问题的关键。 而不能就只是觉得某个 Query 好像有点慢,需要优化一下,然后就开始一个一个优化方法去轮番尝试。 这样很可能整个优化过程会消耗大量的人力和时间成本,甚至可能到最后还是得不到一个好的优化结 果。这就像看病一样,医生必须要清楚的知道我们病的根源才能对症下药。如果只是知道我们什么地方 不舒服,然后就开始通过各种药物尝试治疗,那这样所带来的后果可能就非常严重了。
所以,在拿到一条需要优化的 Query 之后,我们首先要判断出这个 Query 的瓶颈到底是 IO 还是 CPU。到底是因为在数据访问消耗了太多的时间,还是在数据的运算(如分组排序等)方面花费了太多资 源?
一般来说,在 MySQL 5.0 系列版本中,我们可以通过系统自带的 PROFILING 功能很清楚的找出一个 Query 的瓶颈所在。当然,如果读者朋友为了使用 MySQL 的某些在 5.1 版本中才有的新特性(如 Partition,EVENT等)亦或者是比较喜欢尝试新事务而早早使用的MySQL 5.1 的预发布版本,可能就没 办法使用这个功能了,因为该功能在MySQL5.1 系列刚开始的版本中并不支持,不过让人非常兴奋的是该 功能在最新出来的 MySQL 5.1 正式版(5.1.30)又已经提供了。而如果读者朋友正在使用的 MySQL 是 4.x 版本,那可能就只能通过自行分析 Query 的各个执行步骤,找到性能损失最大的地方。
明确的优化目标
当我们定为到了一条 Query 的性能瓶颈之后,就需要通过分析该 Query 所完成的功能和 Query 对 系统的整体影响制订出一个明确的优化目标。没有一个明确的目标,优化过程将是一个漫无目的而且低
效的过程,也很难达收到一个理想的效果。尤其是对于一些实现应用中较为重要功能点的Query 更是如 此。
如何设定优化目标?这可能是很多人都非常头疼的问题,对于我自己也一样。要设定一个合理的优 化目标,不能过于理想也不能放任自由,确实是一件非常头疼的事情。一般来说,我们首先需要清楚的 了解数据库目前的整体状态,同时也要清楚的知道数据库中与该Query 相关的数据库对象的各种信息, 而且还要了解该 Query 在整个应用系统中所实现的功能。了解了数据库整体状态,我们就能知道数据库 所能承受的最大压力,也就清楚了我们能够接受的最悲观情况。把握了该Query 相关数据库对象的信 息,我们就应该知道实现该 Query 的消耗最理想情况下需要消耗多少资源,最糟糕又需要消耗多少资 源。最后,通过该 Query 所实现的功能点在整个应用系统中的重要地位,我们可以大概的分析出该 Query 可以占用的系统资源比例,而且我们也能够知道该 Query 的效率给客户带来的体验影响到底有多 大。
当我们清楚了这些信息之后,我们基本可以得出该 Query 应该满足的一个性能范围是怎样的,这也 就是我们的优化目标范围,然后就是通过寻找相应的优化手段来解决问题了。如果该Query 实现的应用 系统功能比较重要,我们就必须让目标更偏向于理想值一些,即使在其他某些方面作出一些让步与牺 牲,比如调整 schema 设计,调整索引组成等,可能都是需要的。而如果该 Query 所实现的是一些并不 是太关键的功能,那我们可以让目标更偏向悲观值一些,而尽量保证其他更重要的Query 的性能。这种 时候,即使需要调整商业需求,减少功能实现,也不得不应该作出让步。
从 Explain 入手
现在,优化目标也已经明确了,自然是奥开始动手的时候了。我们的优化到底该从何处入手呢?答 案只有一个,从Explain 开始入手。为什么?因为只有Explain才能告诉你,这个 Query 在数据库中是 以一个什么样的执行计划来实现的。
但是,有一点我们必须清楚,Explain 只是用来获取一个 Query 在当前状态的数据库中的执行计 划,在优化动手之前,我们比需要根据优化目标在自己头脑中有一个清晰的目标执行计划。只有这样, 优化的目标才有意义。一个优秀的SQL 调优人员(或者成为 SQL Performance Tuner),在优化任何一 个 SQL 语句之前,都应该在自己头脑中已经先有一个预定的执行计划,然后通过不断的调整尝试,再借 助 Explain 来验证调整的结果是否满足自己预定的执行计划。对于不符合预期的执行计划需要不断分析 Query 的写法和数据库对象的信息,继续调整尝试,直至得到预期的结果。
当然,人无完人,并不一定每次自己预设的执行计划都肯定是最优的,在不断调整测试的过程中, 如果发现 MySQL Optimizer 所选择的执行计划的实际执行效果确实比自己预设的要好,我们当然还是应 该选择使用 MySQL optimizer 所生成的执行计划。
上面的这个优化思路,只是给大家指了一个优化的基本方向,实际操作还需要读者朋友不断的结合 具体应用场景不断的测试实践来体会。当然也并不一定所有的情况都非要严格遵循这样一个思路,规则 是死的,人是活的,只有更合理的方法,没有最合理的规则。
在了解了上面这些优化的基本思路之后,我们再来看看优化的几个基本原则。 永远用小结果集驱动大的结果集
很多人喜欢在优化 SQL 的时候说用小表驱动大表,个人认为这样的说法不太严谨。为什么?因 为大表经过 WHERE 条件过滤之后所返回的结果集并不一定就比小表所返回的结果集大,可能反而更小。 在这种情况下如果仍然采用小表驱动大表,就会得到相反的性能效果。
其实这样的结果也非常容易理解,在MySQL 中的 Join,只有 Nested Loop 一种 Join 方式,也就是 MySQL 的 Join 都是通过嵌套循环来实现的。驱动结果集越大,所需要循环的此时就越多,那么被驱动表 的访问次数自然也就越多,而每次访问被驱动表,即使需要的逻辑IO 很少,循环次数多了,总量自然也 不可能很小,而且每次循环都不能避免的需要消耗 CPU ,所以 CPU 运算量也会跟着增加。所以,如果 我们仅仅以表的大小来作为驱动表的判断依据,假若小表过滤后所剩下的结果集比大表多很多,结果就 是需要的嵌套循环中带来更多的循环次数,反之,所需要的循环次数就会更少,总体IO 量和 CPU 运算 量也会少。而且,就算是非 Nested Loop 的 Join 算法,如 Oracle 中的 Hash Join,同样是小结果集 驱动大的结果集是最优的选择。
所以,在优化 Join Query 的时候,最基本的原则就是“小结果集驱动大结果集”,通过这个原则 来减少嵌套循环中的循环次数,达到减少IO 总量以及 CPU 运算的次数。
尽可能在索引中完成排序
只取出自己需要的 Columns
任何时候在 Query 中都只取出自己需要的Columns,尤其是在需要排序的 Query 中。为什么?
对于任何 Query,返回的数据都是需要通过网络数据包传回给客户端,如果取出的Column 越多, 需要传输的数据量自然会越大,不论是从网络带宽方面考虑还是从网络传输的缓冲区来看,都是一个浪 费。
如果是需要排序的 Query 来说,影响就更大了。在 MySQL 中存在两种排序算法,一种是在 MySQL4.1 之前的老算法,实现方式是先将需要排序的字段和可以直接定位到相关行数据的指针信息取 出,然后在我们所设定的排序区(通过参数sort_buffer_size 设定)中进行排序,完成排序之后再次 通过行指针信息取出所需要的 Columns,也就是说这种算法需要访问两次数据。第二种排序算法是从 MySQL4.1 版本开始使用的改进算法,一次性将所需要的Columns 全部取出,在排序区中进行排序后直 接将数据返回给请求客户端。改行算法只需要访问一次数据,减少了大量的随机IO,极大的提高了带有 排序的 Query 语句的效率。但是,这种改进后的排序算法需要一次性取出并缓存的数据比第一种算法 要多很多,如果我们将并不需要的Columns 也取出来,就会极大的浪费排序过程所需要的内存。在 MySQL4.1 之后的版本中,我们可以通过设置 max_length_for_sort_data 参数大小来控制 MySQL 选择 第一种排序算法还是第二种排序算法。当所取出的Columns 的单条记录总大小 max_length_for_sort_data 设置的大小的时候,MySQL 就会选择使用第一种排序算法,反之,则会选 择第二种优化后的算法。为了尽可能提高排序性能,我们自然是更希望使用第二种排序算法,所以在 Query 中仅仅取出我们所需要的 Columns 是非常有必要的。
仅仅使用最有效的过滤条件
很多人在优化 Query 语句的时候很容易进入一个误区,那就是觉得 WHERE 子句中的过滤条件越多 越好,实际上这并不是一个非常正确的选择。其实我们分析Query 语句的性能优劣最关键的就是要让他
选择一条最佳的数据访问路径,如何做到通过访问最少的数据量完成自己的任务。

使用DNSCrypt 让你正常使用Google、Facebook、Youtube

DNSCrypt官方介绍页面:http://www.opendns.com/about/innovations/dnscrypt/

DNSCrypt使用类似于SSL的加密连接向DNS服务器拉取解析,所以能够有效对抗DNS劫持、DNS污染以及中间人攻击。

DNSCrypt的客户端版运行后,会自动在状态栏显示服务状态,并自动修改DNS服务器地址为127.0.0.1,通过本地加密的方式安 全连接OpenDNS,这样,本地所有的DNS请求都会加密进行从而绕过DNS污染,最终顺利解析到正确IP地址,根据我的测试,这个工具可以一劳永逸地 解决所有DNS污染问题。

Windows
下载客户端:http://shared.opendns.com/dnscrypt/packages/windows-client/DNSCryptWin-v0.0.6.exe

MacOX
下载客户端:http://opendns.github.io/dnscrypt-osx-client/
通过homebrew编译安装
$ brew install dnscrypt-proxy
使用方法:
下载并安装成功后需要重启系统,在Enable DNSCrypt选项上划勾选中即可,操作界面上的盾牌将变成绿色,说明已经成功了,windows客户端亦然。

(转自:http://levi.cg.am/archives/3573)

打造卓越团队的10种原则

1.致力于一个一致同意的目标--那个渴望的“结果”。
2.明确团队为得到这个“结果”而必须云做的事情。
3.有共同战胜困难和挑战的欲望。
4.明白团队与远方世界之间的联系。
5.尽可能增加团队成员的见面次数。
6.创造一种互惠反馈的文化--以便系统化地提出绩效标准。
7.以团队为单位进行学习和发展--以便制定出绩效标准。
8.如果你在单独行动,以个人为单位来完成更多的任务。
9.得到团队渴望的“结果”。
10.团队实现目标时不要放松休息--全队转向下一个目标。

个人因素和集体因素对团队的影响

个人因素作用程度低,集体因素作用程度也低,造成成员之间的隔阂。

集体因素作用程度低,个人因素作用程度高,造成成员不服从团队的后果。

集体因素作用程度高,个人因素作用成度低,造成大家人云亦云的后果。个体成员必须服从团队,团队里没有自我。只重视集体,不重视个体。如果大家都认为“集体高于个人”,那么人去亦云不失为良策。但是,如果成员不这么认为,那么他们的行动就不可能是积极主动的,只可能是消极被动的。

集体因素作用较高,个人因素作用也高,能够营造富有创造力的环境。只是有一点需要注意。在这种环境中,个人需要发挥自己的情商,在认识和管理自己情绪的同时,也应该认识他人的情绪,并作出适当的回应。

个人因素与集体因素的特点:

个人因素希望团队赋予每个成员权利、社交、尊重、奖励、职业。

集体因素强调整体性,它注重和谐,并且寻求集体的利益最大化。

git 本地分支关联远程分支

git在本地新建分支, push到remote服务器上之后,再次pull下来的时候,如果不做处理会报以下提示:

There is no tracking information for the current branch.
Please specify which branch you want to merge with.
See git-pull(1) for details

git pull

If you wish to set tracking information for this branch you can do so with:

git branch –set-upstream master origin/

问题解析:
git本地新建一个分支后,必须要做远程分支关联。如果没有关联,git会在下面的操作中提示你显示的添加关联。关联目的是如果在本地分支下操作: git pull, git push ,不需要指定在命令行指定远程的分支.推送到远程分支后,你只要没有显示指定,git pull的时候,就会提示你。

解决方法:

使用命令git branch –set-upstream ;实例如下,其中debug为创建的分支

命令的最终修改都是针对.git目录下的config文件

关联分支前:

[core]
repositoryformatversion = 0
filemode = true
bare = false
logallrefupdates = true
[remote "origin"]
url = git@git.oschina.net:****/C****t.git
fetch = +refs/heads/*:refs/remotes/origin/*

关联分支后:

[core]
repositoryformatversion = 0
filemode = true
bare = false
logallrefupdates = true
[remote "origin"]
url = git@git.oschina.net:****/C****t.git
fetch = +refs/heads/*:refs/remotes/origin/*
[branch "master"]
remote = origin
merge = refs/heads/master

相关阅读:
git简明教程

团队的定义和特点

高想一下这样的情景:你刚刚找到一份工作,招聘主管向你走来,热情的笑着喊道:“欢迎你加入我们的团队!”

团队这个词的涵义很特别--你是团队的一员,表明团队接纳你、需要你。

可是团队是什么呢?管理说研究者苏珊.科思和戴安娜.贝利为《管理杂志》写过一篇关于团队效率的全面概述,她们对团队的定义是:
团队是这样一群人的集合:他们在工作中互相依靠,一同为结果负责,隶属于一个或多个更大的社会系统(例如商业单位或政府机构)。团队成员把彼此看作是一个完整的社会实体,他们有时要超越组织界限以处理好各种关系。

关于团队的命题还有一本成功的书,叫做《团队智慧》(Teh Wisdom of Teams),其中J.R.卡岑巴赫(J.R.Katzenbach)和D.K.史密斯(D.K.Smith)以相似的方式给团队下了定义。他们把团队定义为:
数量不多的一各人,他们技能互补、目标相同、工作表现指标一致、具有协同的认知、彼此为对方负责。

通过以上的2种定义,可以总结出团队具备以下特点:
1.人数较少
2.技能互补
3.目标一致
4.工作表现指标一致
5.协同认知
6.彼此为对方负责

解决WordPress一直加载fonts.google.com

静下心来想写写博客,装了个Wordpress 却打开非常慢。COMMAN+OPTION+I 发现一个链接一直处理 pending 状态,而这个链接是引入一个样式文件,是fonts.google.com上的,但是google.com的域名已经被屏蔽了。很显然是引用不成功的。

要怎么办呢,于是请教了度娘。得出答案:http://www.jsgblog.com/944.html

我比较懒,先了懒方法:
在当前主题的 functions.php 文件增加了以下代码。

//替换字体
function wpdx_replace_open_sans() {
wp_deregister_style('open-sans');
wp_register_style( 'open-sans', '//fonts.useso.com/css?family=Open+Sans:300italic,400italic,600italic,300,400,600' );
if(is_admin()) wp_enqueue_style( 'open-sans');
}
add_action( 'init', 'wpdx_replace_open_sans' );