#include "iostream" using namespace std; class Matrix { private: double** A; //矩阵A double *b; //向量b public: int size; Matrix(int ); ~Matrix(); friend double* Dooli(Matrix& ); void Input(); void Disp(); }; Matrix::Matrix(int x) { size=x; //为向量b分配空间并初始化为0 b=new double [x]; for(int j=0;j<x;j++) b[j]=0; //为向量A分配空间并初始化为0 A=new double* [x]; for(int i=0;i<x;i++) A[i]=new double [x]; for(int m=0;m<x;m++) for(int n=0;n<x;n++) A[m][n]=0; } Matrix::~Matrix() { cout<<"正在析构中~~~~"<<endl; delete b; for(int i=0;i<size;i++) delete A[i]; delete A; } void Matrix::Disp() { for(int i=0;i<size;i++) { for(int j=0;j<size;j++) cout<<A[i][j]<<" "; cout<<endl; } } void Matrix::Input() { cout<<"请输入A:"<<endl; for(int i=0;i<size;i++) for(int j=0;j<size;j++){ cout<<"第"<<i+1<<"行"<<"第"<<j+1<<"列:"<<endl; cin>>A[i][j]; } cout<<"请输入b:"<<endl; for(int j=0;j<size;j++){ cout<<"第"<<j+1<<"个:"<<endl; cin>>b[j]; } } double* Dooli(Matrix& A) { double *Xn=new double [A.size]; Matrix L(A.size),U(A.size); //分别求得U,L的第一行与第一列 for(int i=0;i<A.size;i++) U.A[0][i]=A.A[0][i]; for(int j=1;j<A.size;j++) L.A[j][0]=A.A[j][0]/U.A[0][0]; //分别求得U,L的第r行,第r列 double temp1=0,temp2=0; for(int r=1;r<A.size;r++){ //U for(int i=r;i<A.size;i++){ for(int k=0;k<r-1;k++) temp1=temp1+L.A[r][k]*U.A[k][i]; U.A[r][i]=A.A[r][i]-temp1; } //L for(int i=r+1;i<A.size;i++){ for(int k=0;k<r-1;k++) temp2=temp2+L.A[i][k]*U.A[k][r]; L.A[i][r]=(A.A[i][r]-temp2)/U.A[r][r]; } } cout<<"计算U得:"<<endl; U.Disp(); cout<<"计算L的:"<<endl; L.Disp(); double *Y=new double [A.size]; Y[0]=A.b[0]; for(int i=1;i<A.size;i++ ){ double temp3=0; for(int k=0;k<i-1;k++) temp3=temp3+L.A[i][k]*Y[k]; Y[i]=A.b[i]-temp3; } Xn[A.size-1]=Y[A.size-1]/U.A[A.size-1][A.size-1]; for(int i=A.size-1;i>=0;i--){ double temp4=0; for(int k=i+1;k<A.size;k++) temp4=temp4+U.A[i][k]*Xn[k]; Xn[i]=(Y[i]-temp4)/U.A[i][i]; } return Xn; } int main() { Matrix B(4); B.Input(); double *X; X=Dooli(B); cout<<"~~~~解得:"<<endl; for(int i=0;i<B.size;i++) cout<<"X["<<i<<"]:"<<X[i]<<" "; cout<<endl<<"呵呵呵呵呵"; return 0; }
标签: 道理特分解法
上传时间: 2018-05-20
上传用户:Aa123456789
网络爬虫 网络爬虫在CPP中爬行链接到你想要的深度。控制台应用程序 Ubuntu 14.04 LTS上编译的程序 用g+编译器编译 相依性 卷曲 Boost图书馆 用于编译的命令 G+爬虫.cpp-lcurl-lost_regex-o爬虫 输入 URL:您想要抓取示例“dirghbuch.com”的URL 链接数:要从爬行中提取的每页链接数 深度:我们想爬多深,在哪里深度可以定义为树的深度。 输出量 crawler.txt 限制 链接数最多可达100。 Does not work for website which has blocked curl crawling for example google.com yahoo.com 由于缺乏并行性,所以速度很慢。 没有完整URL的链接被追加到用户在大容量中插入的URLwww.xyz.com有/conatct-us的网址将是www.xyz.com/contact-us 唯一的单词也包含html标记。 可能的改进,但尚未落实 限制共享变量的使用 改进使其易于并行化 比卷曲更有效的爬行方式
上传时间: 2018-06-20
上传用户:1370893801
用VB+MySQL写的一个抢答器,可以供初学者练习数据库链接及读写数据。程序分为客户端和服务端,服务端为主持人控制界面,可以设定题目及下达开始抢答的指令,服务器端需要提前设置参加团队。
上传时间: 2018-07-31
上传用户:lisaksq
3. 依次显示每次分配或回收后的磁盘空间情况,以及每个文件物理地址(物理块号); 4. 磁盘空间采用成组链接;文件物理结构采用索引结构。
上传时间: 2018-12-21
上传用户:t77184058
将需要下载的文章网页链接复制到软件下载框即可进行下载
上传时间: 2019-02-18
上传用户:我是渣渣辉
paperport14百度网盘下载链接,打开网址就可以下载了需要百度网盘的
标签: paperport
上传时间: 2019-03-02
上传用户:499382075
程序特色: 一:使搜索引擎更加容易抓取和索引 二:提供更多的功能,提高用户的友好体验 三:可用性的提高,提高用户的友好体验 html5响应式摄影网站系统使用方法: 将文件上传只ASP空间,运行http://你的域名/install.asp进行安装。 只需两步即可安装完成,为了保证网站安全,请修改默认后台路径及数据库名称。 S-CMS医院建站系统 v3.0 build20190104更新说明: 1.新增:修复PHP版部分SQL注入漏洞 2.新增:后台新增检测木马功能,可恢复已篡改文件和删除木马文件 3.优化:PAYPAL支付方式支持设置汇率,境外用户可以使用美元支付 S-CMS医院建站系统 v3.0 build20190111更新说明: 1.优化:兼容多种编码,解决因编码不同无法导入SQL文件的问题 2.新增:PHP版新增批量上传图片功能及通过excel批量导入产品功能 3.新增:后台登录界面加入验证码功能,防止暴力破解密码 S-CMS医院建站系统 v3.0 build20190308更新说明: 1.新增:新闻模块招聘功能支持编辑条目标题 2.新增:万能表单系统加入开启验证码的选项,可根据需要开启或关闭 3.优化:后台会员模块列表加入分页功能,缩短加载时间 S-CMS医院建站系统 v3.0 build20190322更新说明: 1.优化:支持恢复旧版程序时备份的数据库文件 2.优化:生成全站静态文件时,采用了分批次生成方法,防止代码运行超时 3.修复:修复会员中心积分转余额功能及完善信息加积分功能的错误 4.优化:优化核心程序,使页面加载速度更快 S-CMS医院建站系统 v3.0 build20190412更新说明: 1.新增:加入回收站功能,所有误删除的数据均可在回收站内进行恢复 2.优化:用户登录后台和导入模板数据时自动备份数据,防止误操作损坏网站数据 3.优化:后台富文本编辑器改为Ueditor,功能更加强大 S-CMS医院建站系统 v3.0 build20190419更新说明: 1.新增:新增页面防复制功能,可以保护网页内容防止文字被复制和图片被保存 2.新增:当管理员登录IP有变动时,需要二次验证邮箱,保障后台数据安全 3.新增:取消图形验证码,改为拖动滑块验证,增加了人机验证的安全性同时减少出错概率 S-CMS医院建站系统 v3.0 build20190510更新说明: 1.新增:支持编辑器上传图片加水印及同步到OSS云储存 2.新增:产品和新闻分类按钮弃用click点击,采用a链接,对搜索引擎更加友好 3.新增:新增MIP(即移动端网页加速技术)模板,可以有效的提高网站的搜索引擎排名
上传时间: 2019-05-14
上传用户:tiansan52077
破解工具和全套软件是分开的2个链接,如果链接失效私信 各位动动你们金贵的手指给点爱心和悬赏或者币都可以,想去影视区看看电影 adobe全套软件 链接:https://pan.baidu.com/s/1AzuJxfIFWmEqcyWa8_esDg 密码:ngmf 破解工具 链接:https://pan.baidu.com/s/1IqkHZ6KuiCkM9v611hB0ZQ 密码:mbur
上传时间: 2019-11-06
上传用户:564988996
CMPP3.0源码 java实现 1.将common文件夹、MsgConfig.properties放于src根目录下。 2.修改MsgConfig.properties配置文件对应的内容为可用参数。 3.方法入口:common.msg.util.MsgContainer sendWapPushMsg(String url,String desc,String cusMsisdn):发送web push短信; sendMsg(String msg,String cusMsisdn):发送SMS 4.“定时器.txt”记录的是长链接链路检查的基于spring的配置,如果使用java原生定时器可自行配置。 5.依赖包包括
上传时间: 2019-11-11
上传用户:leonmomo
以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy(): url = 'http://www.xicidaili.com/nn/1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } response = requests.get(url, headers=headers) html_ele = etree.HTML(response.text) ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()') port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()') proxy_list = [] for i in range(0,len(ip_eles)): proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i] proxy_list.append(proxy_str) return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list): valid_proxy_list = [] for proxy in proxy_list: url = 'http://www.baidu.com/' proxy_dict = { 'http': proxy } try: start_time = time.time() response = requests.get(url, proxies=proxy_dict, timeout=5) if response.status_code == 200: end_time = time.time() print('代理可用:' + proxy) print('耗时:' + str(end_time - start_time)) valid_proxy_list.append(proxy) else: print('代理超时') except: print('代理不可用--------------->'+proxy) return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__': proxy_list = get_all_proxy() valid_proxy_list = check_all_proxy(proxy_list) print('--'*30) print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930
上传时间: 2019-11-15
上传用户:fygwz1982