虫虫首页|资源下载|资源专辑|精品软件
登录|注册

NN

  • 本程序利用奇异值分解对3通道彩色图像进行压缩分解

    本程序利用奇异值分解对3通道彩色图像进行压缩分解,具体步骤如下: 压缩过程: 1. 选取子图像大小K值,把图像分解成M×M个子图像,IMG(s),s=1,2,…, M2,其中M=N/K,原始图像IMG大小为N×N。 2. 计算这M2个子图像的平均值average,对每幅子图像减去均值图像得到新图像。 3. 计算相关矩阵R,其元素定义为 。 4. 计算R的特征值与特征向量,计算每幅子图像与最大特征向量的内积,便得到编码,即压缩后的图像。

    标签: 程序 奇异值分解 分解 彩色图像

    上传时间: 2013-12-23

    上传用户:chenxichenyue

  • 完整的模式识别库

    完整的模式识别库,包括矩阵运算,各种模式识别算法,如K均值、SVM、RVM、NN、LDA等

    标签: 模式识别

    上传时间: 2016-04-02

    上传用户:vodssv

  • 基于BP神经网络的 参数自学习控制 (1)确定BP网络的结构

    基于BP神经网络的 参数自学习控制 (1)确定BP网络的结构,即确定输入层节点数M和隐含层节点数Q,并给出各层加权系数的初值 和 ,选定学习速率 和惯性系数 ,此时k=1; (2)采样得到rin(k)和yout(k),计算该时刻误差error(k)=rin(k)-yout(k); (3)计算神经网络NN各层神经元的输入、输出,NN输出层的输出即为PID控制器的三个可调参数 , , ; (4)根据(3.34)计算PID控制器的输出u(k); (5)进行神经网络学习,在线调整加权系数 和 ,实现PID控制参数的自适应调整; (6)置k=k+1,返回(1)。

    标签: BP神经网络 参数 BP网络 学习控制

    上传时间: 2016-04-26

    上传用户:无聊来刷下

  • 程序名:ga_bp_predict.cpp 描述: 采用GA优化的BP神经网络程序

    程序名:ga_bp_predict.cpp 描述: 采用GA优化的BP神经网络程序,用于单因素时间 序列的预测,采用了单步与多步相结合预测 说明: 采用GA(浮点编码)优化NN的初始权值W[j][i],V[k][j],然后再采用BP算法 优化权值

    标签: ga_bp_predict cpp 程序 BP神经网络

    上传时间: 2014-02-17

    上传用户:冇尾飞铊

  • This function calculates Akaike s final prediction error % estimate of the average generalization e

    This function calculates Akaike s final prediction error % estimate of the average generalization error for network % models generated by NNARX, NNOE, NNARMAX1+2, or their recursive % counterparts. % % [FPE,deff,varest,H] = NNfpe(method,NetDef,W1,W2,U,Y,NN,trparms,skip,Chat) % produces the final prediction error estimate (fpe), the effective number % of weights in the network if it has been trained with weight decay, % an estimate of the noise variance, and the Gauss-Newton Hessian. %

    标签: generalization calculates prediction function

    上传时间: 2016-12-26

    上传用户:脚趾头

  • 数据挖掘matlab源码

    数据挖掘matlab源码,包含机器学习领域中经典算法如ID3,C4.5,NN,CARD,EM等.

    标签: matlab 数据挖掘 源码

    上传时间: 2014-01-22

    上传用户:chenxichenyue

  • The code performs a number (ITERS) of iterations of the Bailey s 6-step FFT alg

    The code performs a number (ITERS) of iterations of the Bailey s 6-step FFT algorithm (following the ideas in the CMU Task parallel suite). 1.- Generates an input signal vector (dgen) with size n=n1xn2 stored in row major order In this code the size of the input signal is NN=NxN (n=NN, n1=n2=N) 2.- Transpose (tpose) A to have it stored in column major order 3.- Perform independent FFTs on the rows (cffts) 4.- Scale each element of the resulting array by a factor of w[n]**(p*q) 5.- Transpose (tpose) to prepair it for the next step 6.- Perform independent FFTs on the rows (cffts) 7.- Transpose the resulting matrix The code requires nested Parallelism.

    标签: iterations performs Bailey number

    上传时间: 2014-01-05

    上传用户:libenshu01

  • DeepLearnToolbox-master

    DeepLearnToolbox-master,含有NN,SAE,CNN,DBN等

    标签: DeepLearnToolbox-master

    上传时间: 2016-07-03

    上传用户:广德玄武

  • 模式识别matlab工具箱

    模式识别matlab工具箱,包括SVM,ICA,PCA,NN等等模式识别算法,很有参考价值

    标签: matlab 模式识别 工具箱

    上传时间: 2016-12-25

    上传用户:wwwnada

  • python爬虫获取大量免费有效代理ip--有效防止ip被封

    以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy():     url = 'http://www.xicidaili.com/NN/1'     headers = {         'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',     }     response = requests.get(url, headers=headers)     html_ele = etree.HTML(response.text)     ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')     port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')     proxy_list = []     for i in range(0,len(ip_eles)):         proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]         proxy_list.append(proxy_str)     return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list):     valid_proxy_list = []     for proxy in proxy_list:         url = 'http://www.baidu.com/'         proxy_dict = {             'http': proxy         }         try:             start_time = time.time()             response = requests.get(url, proxies=proxy_dict, timeout=5)             if response.status_code == 200:                 end_time = time.time()                 print('代理可用:' + proxy)                 print('耗时:' + str(end_time - start_time))                 valid_proxy_list.append(proxy)             else:                 print('代理超时')         except:             print('代理不可用--------------->'+proxy)     return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__':     proxy_list = get_all_proxy()     valid_proxy_list = check_all_proxy(proxy_list)     print('--'*30)     print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930

    标签: python ip 代理 防止

    上传时间: 2019-11-15

    上传用户:fygwz1982