虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

动态链接<b>库</b>

  • 道理特分解法

    #include "iostream" using namespace std; class Matrix { private: double** A; //矩阵A double *b; //向量b public: int size; Matrix(int ); ~Matrix(); friend double* Dooli(Matrix& ); void Input(); void Disp(); }; Matrix::Matrix(int x) { size=x; //为向量b分配空间并初始化为0 b=new double [x]; for(int j=0;j<x;j++) b[j]=0; //为向量A分配空间并初始化为0 A=new double* [x]; for(int i=0;i<x;i++) A[i]=new double [x]; for(int m=0;m<x;m++) for(int n=0;n<x;n++) A[m][n]=0; } Matrix::~Matrix() { cout<<"正在析构中~~~~"<<endl; delete b; for(int i=0;i<size;i++) delete A[i]; delete A; } void Matrix::Disp() { for(int i=0;i<size;i++) { for(int j=0;j<size;j++) cout<<A[i][j]<<" "; cout<<endl; } } void Matrix::Input() { cout<<"请输入A:"<<endl; for(int i=0;i<size;i++) for(int j=0;j<size;j++){ cout<<"第"<<i+1<<"行"<<"第"<<j+1<<"列:"<<endl; cin>>A[i][j]; } cout<<"请输入b:"<<endl; for(int j=0;j<size;j++){ cout<<"第"<<j+1<<"个:"<<endl; cin>>b[j]; } } double* Dooli(Matrix& A) { double *Xn=new double [A.size]; Matrix L(A.size),U(A.size); //分别求得U,L的第一行与第一列 for(int i=0;i<A.size;i++) U.A[0][i]=A.A[0][i]; for(int j=1;j<A.size;j++) L.A[j][0]=A.A[j][0]/U.A[0][0]; //分别求得U,L的第r行,第r列 double temp1=0,temp2=0; for(int r=1;r<A.size;r++){ //U for(int i=r;i<A.size;i++){ for(int k=0;k<r-1;k++) temp1=temp1+L.A[r][k]*U.A[k][i]; U.A[r][i]=A.A[r][i]-temp1; } //L for(int i=r+1;i<A.size;i++){ for(int k=0;k<r-1;k++) temp2=temp2+L.A[i][k]*U.A[k][r]; L.A[i][r]=(A.A[i][r]-temp2)/U.A[r][r]; } } cout<<"计算U得:"<<endl; U.Disp(); cout<<"计算L的:"<<endl; L.Disp(); double *Y=new double [A.size]; Y[0]=A.b[0]; for(int i=1;i<A.size;i++ ){ double temp3=0; for(int k=0;k<i-1;k++) temp3=temp3+L.A[i][k]*Y[k]; Y[i]=A.b[i]-temp3; } Xn[A.size-1]=Y[A.size-1]/U.A[A.size-1][A.size-1]; for(int i=A.size-1;i>=0;i--){ double temp4=0; for(int k=i+1;k<A.size;k++) temp4=temp4+U.A[i][k]*Xn[k]; Xn[i]=(Y[i]-temp4)/U.A[i][i]; } return Xn; } int main() { Matrix B(4); B.Input(); double *X; X=Dooli(B); cout<<"~~~~解得:"<<endl; for(int i=0;i<B.size;i++) cout<<"X["<<i<<"]:"<<X[i]<<" "; cout<<endl<<"呵呵呵呵呵"; return 0; } 

    标签: 道理特分解法

    上传时间: 2018-05-20

    上传用户:Aa123456789

  • 网络爬虫编程

    网络爬虫 网络爬虫在CPP中爬行链接到你想要的深度。控制台应用程序   Ubuntu 14.04 LTS上编译的程序   用g+编译器编译 相依性   卷曲   Boost图书馆 用于编译的命令   G+爬虫.cpp-lcurl-lost_regex-o爬虫 输入   URL:您想要抓取示例“dirghbuch.com”的URL   链接数:要从爬行中提取的每页链接数   深度:我们想爬多深,在哪里深度可以定义为树的深度。 输出量   crawler.txt 限制   链接数最多可达100。   Does not work for website which has blocked curl crawling for example google.com yahoo.com   由于缺乏并行性,所以速度很慢。   没有完整URL的链接被追加到用户在大容量中插入的URLwww.xyz.com有/conatct-us的网址将是www.xyz.com/contact-us   唯一的单词也包含html标记。 可能的改进,但尚未落实   限制共享变量的使用   改进使其易于并行化   比卷曲更有效的爬行方式

    标签: 网络爬虫 编程

    上传时间: 2018-06-20

    上传用户:1370893801

  • 简易抢答器 VB6 源码

    用VB+MySQL写的一个抢答器,可以供初学者练习数据库链接及读写数据。程序分为客户端和服务端,服务端为主持人控制界面,可以设定题目及下达开始抢答的指令,服务器端需要提前设置参加团队。

    标签: VB6 抢答器 源码

    上传时间: 2018-07-31

    上传用户:lisaksq

  • 操作系统磁盘空间管理

    3. 依次显示每次分配或回收后的磁盘空间情况,以及每个文件物理地址(物理块号); 4. 磁盘空间采用成组链接;文件物理结构采用索引结构。

    标签: 操作系统 磁盘

    上传时间: 2018-12-21

    上传用户:t77184058

  • 网页文章下载软件不限次数

    将需要下载的文章网页链接复制到软件下载框即可进行下载

    标签: 下载软件

    上传时间: 2019-02-18

    上传用户:我是渣渣辉

  • paperport

    paperport14百度网盘下载链接,打开网址就可以下载了需要百度网盘的

    标签: paperport

    上传时间: 2019-03-02

    上传用户:499382075

  • 医院网站一套源码PHP版的前端后端数据库

    程序特色: 一:使搜索引擎更加容易抓取和索引 二:提供更多的功能,提高用户的友好体验 三:可用性的提高,提高用户的友好体验 html5响应式摄影网站系统使用方法: 将文件上传只ASP空间,运行http://你的域名/install.asp进行安装。 只需两步即可安装完成,为了保证网站安全,请修改默认后台路径及数据库名称。 S-CMS医院建站系统 v3.0 build20190104更新说明: 1.新增:修复PHP版部分SQL注入漏洞 2.新增:后台新增检测木马功能,可恢复已篡改文件和删除木马文件 3.优化:PAYPAL支付方式支持设置汇率,境外用户可以使用美元支付 S-CMS医院建站系统 v3.0 build20190111更新说明: 1.优化:兼容多种编码,解决因编码不同无法导入SQL文件的问题 2.新增:PHP版新增批量上传图片功能及通过excel批量导入产品功能 3.新增:后台登录界面加入验证码功能,防止暴力破解密码 S-CMS医院建站系统 v3.0 build20190308更新说明: 1.新增:新闻模块招聘功能支持编辑条目标题 2.新增:万能表单系统加入开启验证码的选项,可根据需要开启或关闭 3.优化:后台会员模块列表加入分页功能,缩短加载时间 S-CMS医院建站系统 v3.0 build20190322更新说明: 1.优化:支持恢复旧版程序时备份的数据库文件 2.优化:生成全站静态文件时,采用了分批次生成方法,防止代码运行超时 3.修复:修复会员中心积分转余额功能及完善信息加积分功能的错误 4.优化:优化核心程序,使页面加载速度更快 S-CMS医院建站系统 v3.0 build20190412更新说明: 1.新增:加入回收站功能,所有误删除的数据均可在回收站内进行恢复 2.优化:用户登录后台和导入模板数据时自动备份数据,防止误操作损坏网站数据 3.优化:后台富文本编辑器改为Ueditor,功能更加强大 S-CMS医院建站系统 v3.0 build20190419更新说明: 1.新增:新增页面防复制功能,可以保护网页内容防止文字被复制和图片被保存 2.新增:当管理员登录IP有变动时,需要二次验证邮箱,保障后台数据安全 3.新增:取消图形验证码,改为拖动滑块验证,增加了人机验证的安全性同时减少出错概率 S-CMS医院建站系统 v3.0 build20190510更新说明: 1.新增:支持编辑器上传图片加水印及同步到OSS云储存 2.新增:产品和新闻分类按钮弃用click点击,采用a链接,对搜索引擎更加友好 3.新增:新增MIP(即移动端网页加速技术)模板,可以有效的提高网站的搜索引擎排名

    标签: PHP 网站 源码 后端 数据库

    上传时间: 2019-05-14

    上传用户:tiansan52077

  • Adobe-CS6-amtlib

    破解工具和全套软件是分开的2个链接,如果链接失效私信 各位动动你们金贵的手指给点爱心和悬赏或者币都可以,想去影视区看看电影 adobe全套软件 链接:https://pan.baidu.com/s/1AzuJxfIFWmEqcyWa8_esDg  密码:ngmf 破解工具 链接:https://pan.baidu.com/s/1IqkHZ6KuiCkM9v611hB0ZQ  密码:mbur

    标签: Adobe-CS amtlib

    上传时间: 2019-11-06

    上传用户:564988996

  • CMPP3.0源码

    CMPP3.0源码 java实现 1.将common文件夹、MsgConfig.properties放于src根目录下。 2.修改MsgConfig.properties配置文件对应的内容为可用参数。 3.方法入口:common.msg.util.MsgContainer     sendWapPushMsg(String url,String desc,String cusMsisdn):发送web push短信;         sendMsg(String msg,String cusMsisdn):发送SMS 4.“定时器.txt”记录的是长链接链路检查的基于spring的配置,如果使用java原生定时器可自行配置。 5.依赖包包括

    标签: CMPP3 源码

    上传时间: 2019-11-11

    上传用户:leonmomo

  • python爬虫获取大量免费有效代理ip--有效防止ip被封

    以后再也不用担心写爬虫ip被封,不用担心没钱买代理ip的烦恼了 在使用python写爬虫时候,你会遇到所要爬取的网站有反爬取技术比如用同一个IP反复爬取同一个网页,很可能会被封。如何有效的解决这个问题呢?我们可以使用代理ip,来设置代理ip池。 现在教大家一个可获取大量免费有效快速的代理ip方法,我们访问西刺免费代理ip网址 这里面提供了许多代理ip,但是我们尝试过后会发现并不是每一个都是有效的。所以我们现在所要做的就是从里面提供的筛选出有效快速稳定的ip。 以下介绍的免费获取代理ip池的方法: 优点:免费、数量多、有效、速度快 缺点:需要定期筛选 主要思路: 从网址上爬取ip地址并存储 验证ip是否能使用-(随机访问网址判断响应码) 格式化ip地址 代码如下: 1.导入包 import requests from lxml import etree import time 1 2 3 2.获取西刺免费代理ip网址上的代理ip def get_all_proxy():     url = 'http://www.xicidaili.com/nn/1'     headers = {         'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',     }     response = requests.get(url, headers=headers)     html_ele = etree.HTML(response.text)     ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')     port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')     proxy_list = []     for i in range(0,len(ip_eles)):         proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]         proxy_list.append(proxy_str)     return proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 3.验证获取的ip def check_all_proxy(proxy_list):     valid_proxy_list = []     for proxy in proxy_list:         url = 'http://www.baidu.com/'         proxy_dict = {             'http': proxy         }         try:             start_time = time.time()             response = requests.get(url, proxies=proxy_dict, timeout=5)             if response.status_code == 200:                 end_time = time.time()                 print('代理可用:' + proxy)                 print('耗时:' + str(end_time - start_time))                 valid_proxy_list.append(proxy)             else:                 print('代理超时')         except:             print('代理不可用--------------->'+proxy)     return valid_proxy_list 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 4.输出获取ip池 if __name__ == '__main__':     proxy_list = get_all_proxy()     valid_proxy_list = check_all_proxy(proxy_list)     print('--'*30)     print(valid_proxy_list) 1 2 3 4 5 技术能力有限欢迎提出意见,保证积极向上不断学习 ———————————————— 版权声明:本文为CSDN博主「彬小二」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_39884947/article/details/86609930

    标签: python ip 代理 防止

    上传时间: 2019-11-15

    上传用户:fygwz1982