登录 |  注册 |  繁體中文

文章中心
2016-06-03 21:18:40
这里说的js跨域是指通过js在不同的域之间进行数据传输或通信,比如用ajax向一个不同的域请求数据,或者通过js获取页面中不同域的框架中(iframe)的数据。只要协议、域名、端口有任何一个不同,都被当作是不同的域。 下表给出了相对http://store.company.com/dir/page.html同源检测的结果: 要解决跨域的问题,我们可以使用以下几种方法: 一、通过jsonp
2016-05-24 15:38:55
查看Nginx状态 location = /nginx_status {      stub_status on;      access_log off;      allow 127.0.0.1;      deny all;  }  curl http://127.0.0.1/nginx_status  http://nginx.org/en/docs/http/ngx_http_status_module
2016-04-07 21:30:31
公司内网两台计算机之间传些小文件用不着开服务器,用 nc 就可以搞定。 我来发送 : $ nc 接收者ip 端口号 < 要发送的文件 同事接收 : $ nc -l 端口号 > 要保存的文件名 注: 端口号(1024 ~ 65535)要匹配
2016-03-24 22:39:28
浏览器,支持8,10,16进制,unicode,Ascii编码解析 1 html中 AscII 字母a对应为97,需要在数字前后分别加上“&#”和“;”,例如数字97的ASCII编码是a,则在网页中使用的格式应为“&#97;”。 双引号" ,对应为&quot; 2 在js中 <script type="text/
2016-03-15 19:58:42
有这样的一个问题mysql查询使用mysql中left(right)join筛选条件在on与where查询出的数据是否有差异。 可能只看着两个关键字看不出任何的问题。那我们使用实际的例子来说到底有没有差异。 例如存在两张表结构 表结构1 drop table if EXISTS A; CREATE TABLE A ( ID int(1) NOT NULL, PRIMARY KEY (ID)
2016-03-15 16:37:58
Flume是Cloudera提供的一个分布式、可靠、高可用的海量日志采集、聚合和传输的日志收集系统。Flume提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源收集数据。 Flume NG采用的是三层架构:Agent层,Collector层和Store层,每一层均可水平
2016-03-11 10:43:50
背景 在很多互联网产品应用中,有些场景需要加锁处理,比如:秒杀,全局递增ID,楼层生成等等。大部分的解决方案是基于DB实现的,Redis为单进程单线程模式,采用队列模式将并发访问变成串行访问,且多客户端对Redis的连接并不存在竞争关系。其次Redis提供一些命令SETNX,GETSET,可以方便实现分布式锁机制。 Redis命令介绍 使用Redis实现分布式锁,有两个重要函数需要介绍 SETNX命令(SET
2016-02-24 21:55:57
基于Spark通用计算平台,可以很好地扩展各种计算类型的应用,尤其是Spark提供了内建的计算库支持,像Spark Streaming、Spark SQL、MLlib、GraphX,这些内建库都提供了高级抽象,可以用非常简洁的代码实现复杂的计算逻辑、这也得益于Scala编程语言的简洁性。 我们的应用场景是分析用户使用手机App的行为,描述如下所示: 手机客户端会收集用户的行为事件(我们以点击事件为例),将数据
2016-02-24 10:53:41
Flume+Kafka+SparkStreaming已经发展为一个比较成熟的实时日志收集与计算架构,利用Kafka,即可以支持将用于离线分析的数据流到HDFS,又可以同时支撑多个消费者实时消费数据,包括SparkStreaming。 实时统计需求 以60秒为间隔,统计60秒内的pv,ip数,uv 最终结果包括: 时间点:pv:ips:uv 原始日志格式 2015-11-11T14:59:59|~|xxx
2016-02-22 16:48:56
基于Mahout的电影推荐系统 详见  http://www.php3.cn/a/178.html 下载示例数据 本工程所用到的数据来源于此处 http://grouplens.org/datasets/movielens/ 有100k到10m的数据都有。我们这里选择100k的数据。 对下载的数据解压之后,会出现很多文件,我们需要使用u.data和u.user文件。详细的数据说明可以参见READ
2016-02-22 15:09:34
MLlib 是spark的可以扩展的机器学习库,由以下部分组成:通用的学习算法和工具类,包括分类,回归,聚类,协同过滤,降维,当然也包括调优的部分 Data types   Basic statistics  (基本统计) summary statistics 概括统计 correlations 相关性
2016-02-22 14:47:04
1 机器学习强调三个关键词:算法、经验、性能,其处理过程如下图所示。 上图表明机器学习是数据通过算法构建出模型并对模型进行评估,评估的性能如果达到要求就拿这个模型来测试其他的数据,如果达不到要求就要调整算法来重新建立模型,再次进行评估,如此循环往复,最终获得满意的经验来处理其他的数据。 1.2 机器学习的分类 机器学习分为监督学习(Supervised learning)、无监督学习(Unsupervise
24页/总39页  共457条记录  首页 上一页 下一页 尾页

回到顶部