Linux

  • linux
    Linux,  Shell,  技术,  系统运维

    本地同步服务器代码

    开发过程中,大家都知道,很多公司都是使用跳板机来登录开发机,甚至开发机还禁用了ftp服务,这种情况下,本地同步开发机上的代码就成了一个问题。 下面讲解一个解决方案,就是通过脚本,借助nc命令来解决。 服务器运行脚本(back.sh) 本地运行命令 nc -l 8222> code.tar.gz // 将服务器代码压缩文件下载下来 本地运行脚本(sync.sh)

  • linux
    Linux,  技术,  系统运维

    linux下载部分文件实现预览

    经常会遇到需要通过linux下载大文件,但下载前,需要先预览下文件内容的需求场景,这个时候,就可以通过curl的range参数来实现。 –range: 设置需要下载的字节范围 举例: 上述命令会下载test.txt文件前1024字节的数据到本地的test.part1文件, 读取test.part1内容即可实现预览目的。 同时,–range命令也常用于大文件的分片下载,如: ps: 实现大文件分片下载,最好加一下MD5文件校验的逻辑 md5sum file

  • linux
    Linux,  技术,  系统运维

    经验: 代码部署,cron脚本执行结果还是老代码问题

    今天遇到一个问题,因为运维相关的需求,需要停写线上的某个服务,代码里全部都做了停写,但代码上线部署后,问题出现了: 竟然还有数据往服务里写! 这就比较玄幻了,查了下所有的代码,发现该停的地方确实都停了,为什么呢? 最终经排查,确定原因: cron脚本执行时,会将代码拉入内存,执行期间,读的都是内存中的代码,此时如果你更新了代码,但cron执行的实际还是老的代码,直至脚本执行完毕下一次再次启动才会执行新代码。 同理,一些daemon脚本服务也是一样的道理,上完代码后,需要手动kill重新启动才可以。

  • linux
    Linux,  其他

    mac加密压缩文件夹

    mac压缩文件并进行加密方法 file.zip: 被压缩后的文件名 dir1: 被压缩的文件夹 可以同时压缩多个 dir1 dir2 dir3 示例: ps: 补充: 以上方法仅限于mac自己使用,若打算将压缩文件共享,则还需要用专门的压缩软件,因为很可能windows解析mac生成的压缩文件会造成乱码等这种问题

  • linux
    Linux

    linux 极限内存优化记录

    前言 因为用来开发的机器,内存实在太小,经常触发oom导致执行php脚本非常慢且经常被killed掉,所以,痛定思痛,进行一下极限内存优化。 注: 以下步骤仅限于非生产环境。 查看占用内存进程 top(然后按下M,注意大写) 处理 php-cgi数量优化 修改 php-fpm.conf, 重启php-fpm pm = ondemand pm.start_servers = 1 减少mysql内存占用 在/etc/my.cnf配置中,增加以下配置, 重启mysql #检测的表对象的最大数目 performance_schema_max_table_instances=400 #表定义缓存中表的个数 table_definition_cache=400 #表文件描述符的缓存大小 table_open_cache=256 减少nginx进程数 在nginx.conf配置中, 减少worker_processes数,重启nginx worker_processes:1

  • linux
    Linux,  技术,  系统运维

    删除新建同名软连接问题

    软连接 – 在linux开发中经常用到,目前遇到了这样一个问题。 原有的一个软连接soft_conn,连接的地址是address1。 现在将原来的软连接soft_conn删除,新建同名的软链接soft_conn,其指向address2。 现发现代码中require soft_conn还是引进的旧地址address1 解决 可直接将address1删除,或者mv address1 address3,然后mv address3 address1还原,这两种方法的目的都是为了删除address1原有的文件指针