Knowledge Resource Center for Ecological Environment in Arid Area
基于遥感数据的空间目标融合预测模型 | |
其他题名 | A Fusion Prediction Model for Spatial Target Based on Remote Sensing Data |
韩波1; 康立山1; 陈毓屏1; 宋华珠2 | |
ISSN | 1000-3428 |
出版年 | 2006 |
卷号 | 32期号:14页码:35-36,39 |
中文摘要 | 提出了一种融合预测模型,把基于全局数据的径向基函数、人工神经网络与基于区域数据的空间采样插值相结合,并通过优化权重组合和修正误差,使得预测误差最小化。利用了多角度成像光谱辐射仪MISR,采集了从2002年2003年美国大陆26个局部区域的辐射数据,对模型进行了2组气溶胶光学厚度的预测实验。地表特征因为反射能力的不同,导致了预测模型的不同复杂度。结果显示,融合模型能显著地减少陆地上的预测均方差。 |
英文摘要 | This paper proposes a fusion approach, which combines radius-basis-function artificial neural network model learning from global data with spatial interpolation model sampling from local data. The integration model minimizes the mean squared prediction errors by optimizing weights of their outputs and correcting the errors. It evaluates the fusion approach by cross-year-validation based on multi-angle imaging spectra radiometer (MISR) collected from January 2002 to December 2003 over 26 local regions in the continental US. It is noticed that fusion model can significantly reduce prediction error on land and desert. |
中文关键词 | 空间目标 ; 融合预测模型 ; 全局预测模型 ; 局部预测模型 ; 气溶胶光学厚度 |
英文关键词 | Spatial target prediction Fusion model prediction Global model prediction Local prediction model Aerosol optical thickness |
语种 | 中文 |
国家 | 中国 |
收录类别 | CSCD |
WOS类目 | COMPUTER SCIENCE INTERDISCIPLINARY APPLICATIONS |
WOS研究方向 | Computer Science |
CSCD记录号 | CSCD:2478787 |
资源类型 | 期刊论文 |
条目标识符 | http://119.78.100.177/qdio/handle/2XILL650/219891 |
作者单位 | 1.武汉大学计算机学院, 武汉, 湖北 430072, 中国; 2.武汉理工大学计算机科学与技术学院, 武汉, 湖北 430070, 中国 |
推荐引用方式 GB/T 7714 | 韩波,康立山,陈毓屏,等. 基于遥感数据的空间目标融合预测模型[J],2006,32(14):35-36,39. |
APA | 韩波,康立山,陈毓屏,&宋华珠.(2006).基于遥感数据的空间目标融合预测模型.,32(14),35-36,39. |
MLA | 韩波,et al."基于遥感数据的空间目标融合预测模型".32.14(2006):35-36,39. |
条目包含的文件 | 条目无相关文件。 |
个性服务 |
推荐该条目 |
保存到收藏夹 |
导出为Endnote文件 |
谷歌学术 |
谷歌学术中相似的文章 |
[韩波]的文章 |
[康立山]的文章 |
[陈毓屏]的文章 |
百度学术 |
百度学术中相似的文章 |
[韩波]的文章 |
[康立山]的文章 |
[陈毓屏]的文章 |
必应学术 |
必应学术中相似的文章 |
[韩波]的文章 |
[康立山]的文章 |
[陈毓屏]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。