Imtoken安卓版钱包下载|deepbit
DeepBit - Bitcoin Wiki
DeepBit - Bitcoin Wiki
DeepBit
From Bitcoin Wiki
Jump to: navigation, search
DeepBit
Websitedeepbit.net
DeepBit was a mining pool. The site currently reports a hash rate of 0 Gh/s[1], many users report the pool as abandoned[2] and the last block seems to have been found on 28. November 2013[3]. The pool operator who opened the announcement / support thread on the BitcoinTalk Forum was last active on 16. March 2014[4].
This pool aimed to provide a simple reward sharing scheme and fast payments. It was once the biggest mining pool and at one point had more than 50% of the overall hash power at the time[5].
The service was first available for beta testing starting February 26, 2011[6].
Contents
1 Reward distribution
2 ASIC hardware
3 See Also
4 References
Reward distribution
Proportional: 3% fee.
Pay-Per-Share mode: Current rate shown on website.
ASIC hardware
On September 10th, 2012, the owner of DeepBit announced plans for a custom Bitcoin mining ASIC termed Reclaimer.[7]. On April 8th, 2013, cancellation of the project was announced, citing lack of public interest.[8]
See Also
Comparison of mining pools
Pooled Mining
References
↑ Web site
↑ Re: (1.3 TH) DeepBit.net PPS+Prop,instant payouts, we pay for INVALID BLOCKS too
↑ Re: (1.3 TH) DeepBit.net PPS+Prop,instant payouts, we pay for INVALID BLOCKS too
↑ View the profile of DeepBit
↑ deepbit has 50.18 % now
↑ New mining pool with proportional reward distribution
↑ https://bitcointalk.org/index.php?topic=108375
↑ https://bitcointalk.org/index.php?topic=108375.msg1767578#msg1767578
Mining pools
Background • ComparisonMajor
Bitfury • BTC Guild • BW • Eligius • F2Pool • KanoPool • P2Pool • PolMine • Slush's pool • Tangpool • Poolin • SBICrypto
Active
50BTC • AntPool • Bitalo • Bitcoin Affiliate Network • Bitfinex • BitMinter • BTCDig • btcmp • CloudHashing • EclipseMC • Give Me COINS • Golden Nonce Pool • mmpool • MinerGate • Multipool • Halleychina.com • Ozco.in • TripleminingFledgling
Cucumber PoolSolo
BitSolo • solo.ckpoolDefunct
21bitcoin • ABCPool.co • ArsBitcoin • Betcoin.co Pool • Bitalo • BitClockers • Bitcoin-Station • BitcoinMining.Co • BitcoinPool.com • Bitcoins.lc • Bitp.it • BitPenny • BTC Canada • BTCMine • BtcPool.ru • BTCPoolman • Coinium • Coinotron • Compute 4 Cash • Continuum • DeepBit • Galaxy • GHash.IO • HHTT • KnCMiner • MegaBigPower • MineCo.in • Mining Team Reddit • Nexious • NoFeeMining • PolishPool • pool.itzod.ru • rfcpool • Simplecoin.us • Swepool • UnitedMiners • x8s • XKCD Pool
Retrieved from "https://en.bitcoin.it/w/index.php?title=DeepBit&oldid=55672"
Categories: CompaniesPool Operators
Navigation menu
Personal tools
Create accountLog in
Namespaces
Page
Discussion
Variants
Views
Read
View source
View history
More
Search
Navigation
Main pageBitcoin FAQEditing helpForumsChatroomsRecent changesPage index
Tools
What links hereRelated changesSpecial pagesPrintable versionPermanent linkPage information
Sister projects
EssaysSource
This page was last edited on 24 March 2015, at 17:34.
Content is available under Creative Commons Attribution 3.0 unless otherwise noted.
Privacy policy
About Bitcoin Wiki
Disclaimers
Bit Design | Imreg Bits | Bi-Center Bits | Large Diameter Hole Opening Bits - DEEP BIT
Bit Design | Imreg Bits | Bi-Center Bits | Large Diameter Hole Opening Bits - DEEP BIT
Home
Company Profile
Products & Services
orBIT Series
DM and DS Series
Core Bits – DC Series
Optional Features
Impreg Bits
Bi-Center Bits
Large Diameter Hole Opening Bits
Resources
Contact Us
Toggle navigation
Home
Company Profile
Products & Services
orBIT Series
DM and DS Series
Core Bits – DC Series
Optional Features
Impreg Bits
Bi-Center Bits
Large Diameter Hole Opening Bits
Resources
Contact Us
THE RIGHT BIT FOR ANY JOB
Custom designed for challenging applications around the world
Contact us at Call: +86 28 83961208 or Email info@deep-bits.com
Drilling Down
orBIT Series
DM and DS Series
Core Bits – DC Series
Optional Features
Featured products
orBIT Series
Each orBIT is defined by its consistent drilling performance that utilizes proprietary software and tools to analyze cutter contact area, cutting volume, cutting direction, cutter stresses, and overall force balancing.
Learn More
Featured products
DM and DS Series
DEEPBIT D Series bits have already become a drilling industry standard of consistent performance over the last 18 years. Utilizing advanced Cutter PDC technology (comparable to deep leached cutters), ultra-efficient cutter layout force balancing, improved erosion resistant material, and enhanced hydraulics.
Learn More
Featured products
Core Bits – DC Series
DEEP BIT’s Coring bits are all based on a tungsten carbide matrix body structure with a
steel body frame, and inside and outside gauges made of natural diamond.
Learn More
Featured products
Optional Features
Spiraled blades have been shown to reduce the potential for bit whirl and make a PDC drill bit much more stable during drilling.
Learn More
orBIT Series
DM and DS Series
Core Bits – DC Series
Optional Features
Drilling Down
DESIGN AND ENGINEERING
Great performance for all applications
Field Data Analysis
Bit Design Analysis
X-Ray Imaging Technology
Hydraulic Simulation
Cutter Technology
Drilling Down
Company Profile
DEEP BIT has over seventeen years of experience supplying quality products and services to customers worldwide. In China DEEP BIT holds the leading market share and top performance position for almost all Onshore and Offshore applications.
Learn More
Drilling Down
Our Clients include
Company ProfileHistory
Certifications
QA/QC
Design and Engineering
Our Clients include
Products & ServicesorBIT Series
DM and DS Series
Core Bits – DC Series
Optional Features
Impreg Bits
Bi-Center Bits
Large Diameter Hole Opening Bits
ResourcesBrochures
Reference
Contact Us
© CopyRight © 2020 Deepbit All Rights Reserved 蜀ICP备13021 川公网安备 51019002001930号
Privacy Policy
Digital Agency
We use necessary cookies to make our site work. We also set Google analytics cookies to help us improve the user experience.Ok, I agreed
五分钟了解比特币私钥的转码与使用 - 知乎
五分钟了解比特币私钥的转码与使用 - 知乎首发于比特币/Bitcoin切换模式写文章登录/注册五分钟了解比特币私钥的转码与使用柠檬不萌S凡是关心自己的比特币财产安全的人都应该试着理解下图:数字如果你完全理解二进制、十进制和十六进制,可以跳过这部分。十进制指每一位数都有 10 种可能(0、1、2、3、4、5、6、7、8 或 9)。数字 “6.15” 有 3 位数(顺带一提,6.15 这个数字是有特殊含义的,即,每个人都应该努力拥有 6.15 个比特币)。第一个数是 “6”,第二个数是 “1”,第三个数是 “5”。这三个数可以是 0、1、2、3、4、5、6、7、8、9 中的任何一个。在十进制中,我们从 “0” 数到 “9”(0、1、2、3、4、5、6、7、8、9)就没有新的数了,接下来就要在左边新增一位 “1”(即,逢十进一),得到 “10”,然后再从 “0” 开始数起 —— 原先的 “9” 进了一位,十位数变成了 “1”,个位数变成了 “0”。二进制指每一位数只有两种可能(“0” 和 “1”)。在二进制中,我们从 “0” 数起,然后是 “1” ,接着就是 “10”!看见没?如果你觉得跨度很大,那是因为你还没有跳出十进制思维。在十进制中,“10” 就是普通人的手指数量 —— 因为我们有 10 个手指,所以我们人类常用 10 进制。但是,在二进制中,“10” 就是一个人的大拇指的数量。想象一下用你的大拇指数数:1、10、11、100、101、111、1000、1001…… (译者注:这几个数字换算成十进制就是 1、2、3、4 ……)如果这是你第一次了解二进制,可以用纸和笔自己算一下,可能会有帮助。这就像是第一次学习数数那样,而且还不能靠直觉。十六进制指每一位数有 16 种可能(0、1、2、3、4、5、6、7、8、9、a、b、c、d、e、f)。其中,a=10、b=11、c=12、d=13、e=14 和 f=15。就像扑克牌游戏一样,Jack=11、Queen=12、King=13、Ace=14 或 1。一个字母可以代表一个数字,这就是关键。每一位数的可能性越多,表达一个大数字所用的位数就越少。例如,十进制下的 2047 ,写成二进制就是 11111111111(11 位数),写成十六进制就是 7FF。总结:随机二进制数、校验和、私钥私钥首先是一个二进制数,可以转换成其它形式。但是,私钥本质上是二进制数,因为它是为了给计算机使用的。下面是二进制私钥的一个例子:01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 00100111111请注意,这个私钥由 24 组数字组成,每 11 个数字为一组,共计 264 个二进制数字(24×11=264)。计算机看到的私钥虽然是同一串数字,但是没有空格:010000111111010111011001001000001010011010001000010001110001011011001001101111101000001111001000001101111100100001010100000101110110011000011011100001001101101111001110010101111001101000001001110000010000100100000111001110011110101110001100111010110111000100111111这是个很大的数字,写成十进制就是:7,869,270,257,961,728,227,967,109,454,183,816,220,476,881,432,001,550,169,555,390,346,110,510,455,025,983请注意这两个数的值是一样的,区别只在于十进制写起来更短。总之,私钥有一部分是随机生成的,而最后 8 位(叫作校验和(checksum))是以前面的随机部分作为输入通过一个公式计算得出的。这是一种(软件钱包共同认可的)工程设计:如果数据输入不正确,计算机就会发现校验和与输入数据不匹配,并警告用户。钱包会提示 “抱歉,您的输入可能有误” 。当然,用户可以强行选择继续。校验和并非比特币代码的一部分,是为了保障用户安全而引入的。换言之……从数学设计上来讲,在创建私钥时,下面这个随机部分……01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 001只会生成下面这个校验和……00111111把二者结合起来就得到了最终的私钥。点击此处,了解私钥是怎么来的,以及校验和是如何计算的。请注意,8 位数的校验和与末尾 3 个随机数字组合起来刚好是一组 11 位数字,与其它几组一样(在 BIP39 标准下,一个单词需要 11 位数表达,详见下文)。不同的 随机 二进制数会产生不同的校验和。假设用户在钱包里输入私钥,并声称 “这是我之前生成的私钥,请显示我的地址”,只要有一位数字错误,软件钱包都会发现并发出警告。请原谅我有些啰嗦,但是掌握这些背景知识真的很重要。私钥转换人类很难准确记录下一个二进制私钥并将其输入软件钱包。一旦发生错误,就有可能导致比特币丢失。手写无法使用校验和来检查错误,只有输入计算机才可以。一种解决方案是将二进制数转化成十进制数,让私钥变得更短、更好记。假设一个二进制数被切分成每 11 个数字一组,则每一组数最多可以表示 2048 个十进制数(可表示的十进制数范围是 “0” 至 “2047”)。“0” 至 “2047” 转化成二进制就是 “00000000000” 至 “11111111111”。我们可以将这个私钥转换成 24 组十进制数,每组十进制数的范围是 “0” 至 “2047”。这样写起来容易,但还是容易出错。BIP39 可以有效化解这一风险。这个协议建议比特币用户使用一列由协议定义过的单词表,我猜测这些单词是经过精挑细选的,以防被误读成其它单词。BIP 39 单词表共包含 2048 个单词,按照字母顺序排列。点击此处,查看列表。除了英文版,还有其它语言版本。每个单词都代表 “0” 至 “2047” 之间的某个数字。这样一来,私钥中的每个十进制数都可以被写成一个单词。数字和所对应的单词之间有什么特殊联系吗?没有,这只是由协议定义的,只要我们都使用这个协议,那么单词与数字之间就可以画上等号。这就是助记词(seed words)的由来。你在软件钱包中输入助记词后,每个单词都会转化成 11 个二进制位,将它们组合起来就会形成一个 264 位的二进制数,也就是私钥(还记得吗?最后一个单词包含校验和,因此不是随机的)。如果是由 12 个单词组成的助记词,私钥的长度只有一半,也就是 132 位。遗憾的是,原始的 BIP 39 单词表存储在 GitHub 内,代表的十进制数范围是 “1” 至 “2048”,而非 “0” 至 “2047”。这只是 Github 格式的问题,而非有意设计成如此。为了清楚地说明这个问题,我们来举个例子。假设某个私钥的开头是 11 个 “0”,例如 “00000000000”,那么我们要用单词表上的第一个单词来表示这个二进制数。第一个单词是 “abandon”,表示的是 “00000000000”,但是被标记成了 “1”。这是不对的。十进制数 “1” 转化成二进制是 “00000000001”,这不是我们想要的。但是,由于格式的问题,单词表上所有单词的序号都比它们实际代表的十进制数大了 “1”。我们还可以通过抛硬币来生成二进制数。计算机可以帮助我们获得使用斜体表示的最后 8 位数:010000111111010111011001001000001010011010001000010001110001011011001001101111101000001111001000001101111100100001010100000101110110011000011011100001001101101111001110010101111001101000001001110000010000100100000111001110011110101110001100111010110111000100111111我们首先要做的,是将这个二进制数按照每 11 个数为一组进行切分:01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 00100111111接下来,我们将每一组数转化成十进制数:543, 1398, 577, 616, 1059, 1115, 311, 1667, 1601, 1522, 168, 374, 781, 1555, 889, 1623, 1232, 624, 530, 115, 1269, 1587, 1390, 319然后,我们查询这些十进制数在单词表上对应的单词:考考你:十进制数 543 对应的是哪个单词?Dry、duck 还是 dumb?上图是从 Github 上截取的,因此这张单词表的序号是从 “1” 开始的。因此,每个序号都减去 “1” 之后才是每个单词真正对应的十进制数。因此,序号 544 的单词 dumb 实际上代表的是 “543”,也就是我们要找的那个单词。第二个数是 1398,对应的是单词表上序号为 1399 的单词。全部转化为单词后就是:dumb put else escape love merge cheap sparesight salad bench conduct giant second hundredslab old evoke drastic attack pact shoe punch child请注意,所有单词都是按字母排序的,首字母越靠前的单词代表的数字越小,首字母越靠后的单词代表的数字越大。当你明白这些单词的排序规律之后,可以明显看出这点。扩展私钥再来看下面这张图:扩展私钥是使用二进制私钥以及密语(passphrase)和衍生路径(derivation path),根据你我都没必要知道的数学公式计算得出的。请注意增加密语是如何彻底改变下游扩展私钥的。修改衍生路径也会改变下游数据。不要小看了你的软件钱包提供的默认衍生路径,请务必把它写下来保存好。我会另外写一篇文章来详细介绍衍生路径。扩展私钥最终用来生成一个钱包中的所有比特币地址,而且可以花费这些地址上的比特币。如上图所示,扩展私钥可以生成多个独立私钥(不是扩展私钥,而是普通的私钥),每个私钥会生成独立的公钥,每个公钥又会生成一个地址。扩展私钥还可以用来生成接下来要详细讨论的扩展公钥。我们无法根据单个独立私钥倒推出扩展私钥。这是我个人的理解,但是我不是密码学专家,因此不能确定,不过这么想很合理。但是,每个独立私钥有可能指向后一个独立私钥,当然这点我也不确定。因此,为确保万无一失,别向任何人泄漏你的任何一个私钥。可以确定的是,任何一个公钥都不会泄漏其对应的私钥。明白这一点很重要。我在 https://iancoleman.io/bip39/ 上生成了一个测试钱包。这个网站是练习生成虚拟钱包的好地方(千万别在联网的电脑上使用这种方式生成真的钱包)。扩展私钥如下所示:请注意,上图显示的是 “账户” 扩展私钥。我不知道这个网站为什么要这么标记。再来看这个扩展私钥的开头是 “x”。这意味着使用这个私钥将生成以 “1” 开头的传统地址。传统地址也叫作 P2PKH(pay to public key hash,支付到公钥哈希值)地址。使用以 “y” 开头的私钥(或公钥)会生成以 “3” 开头的地址。这些地址也叫作 P2SH(Pay to script hash,支付到脚本哈希值)地址。使用以 “z” 开头的私钥会生成原生的 segwit/Bech32 地址。这类地址以 “bc1q” 开头。最后,以大写字母 “X”、“Y” 或 “Z” 开头的私钥会生成多签钱包的地址。扩展公钥扩展公钥的用途不是很明显。如果你仔细看示意图的底部,你会发现使用扩展公钥通过钱包软件生成的比特币地址与使用扩展私钥生成的一样,而且地址顺序相同。使用扩展公钥和扩展私钥生成的钱包看起来完全一样。那么区别在哪儿呢?使用扩展私钥生成的钱包能够进行支付。使用公钥生成的钱包无法进行支付。这种钱包通常被称为 “观察” 钱包。你可以将这个钱包放在安全性低的计算机上,不用担心会丢失私钥,但可以用来查看你的钱包余额,或是复制地址发送给其他人。但你还是应该注意保护好自己的扩展公钥。一旦泄漏,其他人就可以通过访问你的扩展公钥来查询你的钱包余额和你的所有地址。从今往后,他们都可以查询你的钱包余额,就好像查询你的银行账单一样。保护好你的金融隐私,更要保护好你的金融密钥(比特币私钥)。注:扩展公钥如下图所示:如上图所示,公钥不是以 “xprv” 开头,而是以 “xpub” 开头,另外也可以 “ypub”、“zpub”、“Xpub”、 “Ypub” 和 “Zpub” 开头。(大写指的是多签私钥。)总结我希望这篇文章能帮助你理解比特币的公钥和私钥,进而让你更容易理解比特币的运作原理编辑于 2021-09-06 09:35进制二进制计算机原理赞同添加评论分享喜欢收藏申请转载文章被以下专栏收录比特币/Bitcoin比特
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks-CSDN博客
>Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks-CSDN博客
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks
最新推荐文章于 2023-04-25 15:41:28 发布
Qiang__zi
最新推荐文章于 2023-04-25 15:41:28 发布
阅读量1.9k
收藏
点赞数
1
分类专栏:
Deep learning
Deep learning
专栏收录该内容
31 篇文章
0 订阅
订阅专栏
Kevin Lin , Jiwen Lu , Chu-Song Chen , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.
摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数现有的二进制描述符设计与随机投影或线性哈希函数,我们开发一个深层神经网络以无监督的方式学习二进制描述符。我们对我们网络顶层学习的二进制代码执行三个标准:1)最小损耗量化,2)编码均匀分布和3)比特不相关。然后,我们用反向传播技术学习网络的参数。在三个不同的视觉分析任务包括图像匹配,图像检索和对象识别的实验结果清楚地证明了所提出的方法的有效性。
1.介绍
特征描述符在计算机视觉中起着重要作用[28],已被广泛应用于众多的计算机视觉任务,如对象识别[10,26,42],图像分类[15,52]和全景拼接[5]。理想的特征描述符应该满足两个基本属性:(1)高质量描述,和(2)低计算花费。特征描述符需要捕获图像中的重要和独特的信息[26,28],并且对于各种图像变换是鲁棒的[26,27]。另一方面,高效的描述符使机器能够实时运行,这对于检索大型语料库中的图像[37]或者利用移动设备检测对象也很重要[43,50]。
在过去十年中,已经广泛探索了高质量描述符,例如从卷积神经网络(CNN)[20,32]和代表性SIFT描述符[26]学习的丰富特征。这些描述符证明了卓越的辨别能力,弥合了低级像素和高级语义信息之间的差距[44]。然而,它们是高维实值描述符,并且通常需要高计算成本。
为了降低计算复杂度,最近提出了几个轻量级二进制描述符,如BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符对排序和匹配非常有效。给定紧凑的二进制描述符,可以通过经由XOR按位操作计算二进制描述符之间的汉明距离来快速测量图像的相似性。由于这些早期的二进制描述符是通过简单的紧密度比较计算的,它们通常是不稳定的并且对尺度,旋转和噪声敏感。 一些先前的工作[9,40,48,53,54]通过在优化期间编码相似性关系来改进二进制描述符。然而,这些方法的成功主要归因于成对相似性标签。换句话说,他们的方法在训练数据不具有标签注释的情况下是不利的。
在这项工作中,我们提出一个问题 - 我们可以从没有标签的数据学习二进制描述符吗? 从深度学习的最新进展启发,我们提出了一个有效的深度学习方法,称为DeepBit,以学习紧凑的二进制描述符。我们对学习的二进制描述符执行三个重要标准,并使用反向传播优化网络的参数。我们采用我们的方法在三个不同的视觉分析任务,包括图像匹配,图像检索和对象识别。实验结果清楚地表明,我们提出的方法优于最先进的技术。
2. Related Work
二进制描述符:与二进制描述符有关的早期作品可以追溯到BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符建立在手工制作的采样模式和一组成对强度比较。虽然这些描述是有效的,但它们的性能是有限的,因为成对强度比较对尺度和几何变换敏感。 为了解决这些限制,已经提出了几种监督方法[3,9,38,39,41,50,53]来学习二进制描述符。 D-Brief [41]编码所需的相似关系,并学习项目矩阵来计算有区别的二进制特征。另一方面,局部差分二进制(LDB)[50,51]应用Adaboost来选择最佳采样对。 线性判别分析(LDA)也被应用于学习二进制描述符[14,38]。最近提出的BinBoost [39,40]使用增强算法学习一组投影矩阵,并在块匹配上实现最先进的性能。虽然这些方法已经取得了令人印象深刻的性能,他们的成功主要归因于配对相似的标签学习,并且不利于将二进制描述符转移到一个新的任务的情况。
无监督散列算法学习紧凑的二进制描述符,其距离与原始输入数据的相似性关系相关[2,14,34,46]。局部敏感哈希(LSH)[2]应用随机投影将原始数据映射到低维特征空间,然后执行二进制化。语义散列(SH)[34]构建了一个多层限制玻尔兹曼机(RBM)来学习用于文本和文档的紧凑二进制代码。频谱散列(SpeH)[46]通过频谱图分割生成高效的二进制代码。迭代量化(ITQ)[14]使用迭代优化策略找到具有最小二值化损失的投影。即使这些方法已经被证明是有效的,二进制码仍然不如真实值等价物那样准确。
深度学习:深度学习在视觉分析中引起越来越多的关注,因为Krizhevsky et al。 [20]证明了深层CNN在1000级图像分类中的突出性能。他们的成功归功于训练一个深度的CNN,在上百万的图像中学习丰富的中级图像表示。Oquab et al [31]表明,可以用少量的训练数据实现将中级图像表示传送到新域。Chatfield等人 [7]表明,微调领域特定深特征产生比非微调特性更好的性能。通过预训练的深度CNN和深层转移学习,如对象检测[12],图像分割[25]和图像搜索[23],几个视觉分析任务已经大大改善。在最近的深度学习和二进制代码学习研究中,Xia et al [47]和Lai et al [21]采用深度CNN学习一组散列函数,但是它们需要配对相似性标签或三元组训练数据。SSHD [49]在深层CNN中构造散列函数作为潜在层,实现了最先进的图像检索性能,但是它们的方法属于监督学习。深度散列(DH)[24]建立三层分层神经网络学习区分投影矩阵,但他们的方法没有利用深层转移学习,因此使二进制代码效率较低。
相比之下,所提出的DeepBit不仅将从ImageNet预训练的中级图像表示传送到目标域,而且还学习没有标签信息的紧凑但有区别的二进制描述符。我们将展示我们的方法在三个公共数据集上达到比最先进的描述符更好或可比的性能。
3.Approach
图2显示了我们提出的方法的学习框架。我们引入一个无人监督的深度学习方法,称为DeepBit,以学习紧凑但有区别的二进制描述符。不同于以前的工作[9,39-41],优化具有手工特征和配对相似信息的投影矩阵,DeepBit学习一组非线性投影函数来计算紧凑二进制描述符。我们对二进制描述符执行三个重要目标,并使用随机梯度下降技术优化所提出的网络的参数。注意,我们的方法不需要标记的训练数据,并且比监督方法更实用。在本节中,我们首先概述我们的方法,然后在以下部分描述提出的学习目标。
3.1 总体学习目标
所提出的DeepBit通过将投影应用于输入图像来计算二进制描述符,然后对结果进行二值化:
b = 0.5 × (sign(F(x; W)) + 1), (1)
其中x表示输入图像,b是向量形式的结果二进制描述符。sign(k) = 1 if k > 0
and −1 otherwise.F(x; W)是多个非线性投影函数的组合,可以写为:
F(x; W) = f k (· · · f 2 (f 1 (x; w 1 ); w 2 ) · · · ; w k ), (2)
其中f i将数据x i和参数w i作为输入,并且产生投影结果x i + 1。
所提出的方法旨在学习一组非线性投影参数W =(w 1,w 2,...,w k),其将输入图像x量化为紧凑二进制向量b,同时保留来自输入的信息。为了学习紧凑而有区别的二进制描述符,我们执行三个重要的标准来学习W. 首先,所学习的紧凑二进制描述符应保留最后一层的致动的局部数据结构。 在投影之后,量化损耗应尽可能小。第二,我们促进二进制描述符均匀分布,使得二进制字符串将传达更多的歧视消息。第三个是使描述符不变的旋转和噪声,因此二进制描述符将倾向于从输入图像捕获更多不相关的信息。
其中N是每个小批量的训练数据的数量,M是二进制码的位长,R表示图像旋转角。是从具有旋转角度θ的图像x n投影的二进制描述符,C(θ)是根据其旋转度惩罚训练数据的成本函数。此外,α,β和γ是平衡不同目标的三个参数。
为了更好地理解所提出的目标,我们描述(3)的物理意义如下。 首先,L 1使二进制描述符和原始输入图像之间的量化损失最小化。然后,L 2鼓励二进制描述符被均匀分布以最大化二进制描述符的信息容量。 最后,L 3通过最小化描述参考图像的描述符和旋转的描述符之间的汉明距离来容忍旋转变换。我们详细阐述了每个提出的目标的细节如下。
3.2 学习辨别二进制描述符
所提出的DeepBit试图学习将输入图像映射成二进制串,同时保留原始输入的辨别信息的投影。保持二进制描述符信息的灵魂思想是通过重写(1)最小化量化损失如下:
(b − 0.5) = F(x; W), (4)
量化损失越小,二进制描述符将保留原始数据信息越好。不同于以前的工作[13],通过迭代更新W和b两个交替的步骤解决这个问题,我们制定这个优化问题作为神经网络训练目标。从那时起,所提出的网络的目标变成学习使二进制描述符和原始输入图像之间的量化损失最小化的W。为此,我们通过反向传播和随机梯度下降(SGD)使用以下损耗函数来优化所提出的网络的参数W:
3.3 学习高效的二进制描述符
为了增加二进制描述符的信息容量,我们最大化二进制字符串中每个bin的使用。考虑每个仓的方差,熵越高,二进制码表示的信息越多。 其中M表示二进制串的位长度。 对于每个bin,我们使用以下公式计算平均响应μm:
其中N是训练数据的数目,并且函数b(m)产生在第m个二进制位的二进制值。
3.4 学习旋转不变二进制描述符
由于旋转不变性对于局部描述符是必要的,因此我们希望在优化期间增强该属性。我们通过最小化描述参考图像和旋转后的二进制描述符之间的差异来解决这个问题。考虑到图像之间的估计误差,当增加旋转度时,估计误差可能变大。因此,我们通过根据旋转度惩罚网络的训练损失来减轻估计误差。我们将所提出的目标定义为成本敏感的优化问题如下:
其中θ∈(-R,R)是旋转角。表示从输入x n与旋转θ映射的描述符。 C(θ)提供成本信息以反映不同旋转变换之间的二进制描述符的关系。在本文中,我们通过设置以减少估计误差:
其中C(θ)是高斯分布,在我们的实验中nμ= 0,σ= 1。
我们使用开源Caffe实现我们的方法[18],算法1总结了所提出的DeepBit的详细过程。所提出的方法包括两个主要部分。第一个是网络初始化。 二是优化步骤。我们使用来自16层VGGNet [36]的预训练的权重来初始化网络,这是在ImageNet大规模数据集上训练的。然后,我们用新的完全连接的层替换VGGNet的分类层,并强制该层中的神经元学习二进制描述符。为此,我们使用随机梯度下降(SGD)方法和反向传播训练我们的网络,并使用提出的目标优化W(见(3))。其他设置如下所示。α = 1.0, β = 1.0, γ = 0.01.我们分别旋转图像10,5,0,-5,-10度。小批量大小为32,二进制描述符的位长度为256。图像归一化为256x256,然后中心裁剪为224×224作为网络输入。
4.实验结果
我们对三个具有挑战性的数据集,棕色灰色斑块[4],CIFAR-10彩色图像[19]和牛津17类花[29]进行实验。我们提供广泛的评估二进制描述符,并演示其在各种任务,包括图像匹配,图像检索和图像分类的性能。我们从介绍数据集开始,然后介绍我们的实验结果以及与其他最新型的方法比较评价。
4.1 数据集
Brown数据集[4]包括三个数据集,即Liberty,Notre Dame,Yosemite数据集。它们中的每一个包括超过400,000个灰度色块,导致总共1,200,000个色块。每个数据集被分成训练和测试集,分别具有20,000个训练对(10,000个匹配和10,000个非匹配对)和10,000个测试对(5,000个匹配和5,000个不匹配对)。
CIFAR-10数据集[19]包含10个对象类别,每个类由6,000个图像组成,导致总共60,000个图像。数据集被分成训练和测试集,分别有50,000和10,000图像。
牛津17类花数据集[29]包含17个类别,每个类由80个图像组成,导致总共 1 360个图像。
4.3 图像检索实验结果
为了评估所提出的二进制描述符的可辨别性,我们进一步测试我们的方法对图像检索的任务。我们在CIFAR-10数据集上比较DeepBit和几种无监督的哈希方法,包括LSH [2],ITQ [14],PCAH [45],语义哈希[SH] [34],光谱哈希[SpeH] [46] 17],KMH [16]和深度散列(DH)[24]。在这八个无监督方法中,深度散列(DH),像我们的方法,利用深层神经网络学习紧凑二进制代码。
根据[24]中的设置,表2示出了基于前1000个返回图像相对于不同位长度的平均平均精度(mAP)的CIFAR-10检索结果。DeepBit分别相对于16,32和64个散列位将以前的最佳检索性能提高了3.26%,8.24%和10.77%mAP。根据结果,我们发现,哈希位越长,DeepBit实现的性能越好。此外,图6分别示出了具有16,32,64个散列位的不同无监督散列方法的精度/回忆曲线。可以看出,DeepBit 始终优于以前的无监督方法。 这表明所提出的方法有效地学习二进制描述符。值得注意的是,DH [24]采用三层分层神经网络来学习二进制散列码; 然而,DH不利用训练期间的深层转移学习。相比之下,提出的DeepBit不仅将从ImageNet预训练的中级图像表示传输到目标域,而且还学习具有期望标准的二进制描述符。实验表明,深层转移学习与提出的目标可以提高无人监管的哈希性能。
5. 总结
在本文中,我们提出了一个无监督的深度学习框架来学习紧凑二进制描述符。我们采用三个标准来学习二进制代码和估计深度神经网络的参数以获得二进制描述符。我们的方法在学习期间不需要标记数据,并且与监督的二进制描述符相比对于现实世界的应用更加实用。在三个基准数据库上的实验包括灰度局部斑块,彩色图像和野生花卉表明我们的方法在大多数情况下比最先进的特征描述符更好的性能。
本文通过深度学习网络来学习 Compact Binary Descriptors , 亮点是 Unsupervised,在优化函数里面加入了三个约束: 1) minimal loss quantization 2) evenly distributed codes 3) uncorrelated bits
优化函数: L1, L2,L3 分别对应: 1)Discriminative Binary Descriptors 2) Efficient Binary Descriptors 3) Rotation Invariant Binary Descriptors
算法流程如下:
4 Experimental Results 4.2. Results on Image Matching
4.3. Results on Image Retrieval
4.4. Results on Object Recognition
Kevin Lin , Jiwen Lu , Chu-Song Chen , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.
摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数现有的二进制描述符设计与随机投影或线性哈希函数,我们开发一个深层神经网络以无监督的方式学习二进制描述符。我们对我们网络顶层学习的二进制代码执行三个标准:1)最小损耗量化,2)编码均匀分布和3)比特不相关。然后,我们用反向传播技术学习网络的参数。在三个不同的视觉分析任务包括图像匹配,图像检索和对象识别的实验结果清楚地证明了所提出的方法的有效性。
1.介绍
特征描述符在计算机视觉中起着重要作用[28],已被广泛应用于众多的计算机视觉任务,如对象识别[10,26,42],图像分类[15,52]和全景拼接[5]。理想的特征描述符应该满足两个基本属性:(1)高质量描述,和(2)低计算花费。特征描述符需要捕获图像中的重要和独特的信息[26,28],并且对于各种图像变换是鲁棒的[26,27]。另一方面,高效的描述符使机器能够实时运行,这对于检索大型语料库中的图像[37]或者利用移动设备检测对象也很重要[43,50]。
在过去十年中,已经广泛探索了高质量描述符,例如从卷积神经网络(CNN)[20,32]和代表性SIFT描述符[26]学习的丰富特征。这些描述符证明了卓越的辨别能力,弥合了低级像素和高级语义信息之间的差距[44]。然而,它们是高维实值描述符,并且通常需要高计算成本。
为了降低计算复杂度,最近提出了几个轻量级二进制描述符,如BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符对排序和匹配非常有效。给定紧凑的二进制描述符,可以通过经由XOR按位操作计算二进制描述符之间的汉明距离来快速测量图像的相似性。由于这些早期的二进制描述符是通过简单的紧密度比较计算的,它们通常是不稳定的并且对尺度,旋转和噪声敏感。 一些先前的工作[9,40,48,53,54]通过在优化期间编码相似性关系来改进二进制描述符。然而,这些方法的成功主要归因于成对相似性标签。换句话说,他们的方法在训练数据不具有标签注释的情况下是不利的。
在这项工作中,我们提出一个问题 - 我们可以从没有标签的数据学习二进制描述符吗? 从深度学习的最新进展启发,我们提出了一个有效的深度学习方法,称为DeepBit,以学习紧凑的二进制描述符。我们对学习的二进制描述符执行三个重要标准,并使用反向传播优化网络的参数。我们采用我们的方法在三个不同的视觉分析任务,包括图像匹配,图像检索和对象识别。实验结果清楚地表明,我们提出的方法优于最先进的技术。
2. Related Work
二进制描述符:与二进制描述符有关的早期作品可以追溯到BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符建立在手工制作的采样模式和一组成对强度比较。虽然这些描述是有效的,但它们的性能是有限的,因为成对强度比较对尺度和几何变换敏感。 为了解决这些限制,已经提出了几种监督方法[3,9,38,39,41,50,53]来学习二进制描述符。 D-Brief [41]编码所需的相似关系,并学习项目矩阵来计算有区别的二进制特征。另一方面,局部差分二进制(LDB)[50,51]应用Adaboost来选择最佳采样对。 线性判别分析(LDA)也被应用于学习二进制描述符[14,38]。最近提出的BinBoost [39,40]使用增强算法学习一组投影矩阵,并在块匹配上实现最先进的性能。虽然这些方法已经取得了令人印象深刻的性能,他们的成功主要归因于配对相似的标签学习,并且不利于将二进制描述符转移到一个新的任务的情况。
无监督散列算法学习紧凑的二进制描述符,其距离与原始输入数据的相似性关系相关[2,14,34,46]。局部敏感哈希(LSH)[2]应用随机投影将原始数据映射到低维特征空间,然后执行二进制化。语义散列(SH)[34]构建了一个多层限制玻尔兹曼机(RBM)来学习用于文本和文档的紧凑二进制代码。频谱散列(SpeH)[46]通过频谱图分割生成高效的二进制代码。迭代量化(ITQ)[14]使用迭代优化策略找到具有最小二值化损失的投影。即使这些方法已经被证明是有效的,二进制码仍然不如真实值等价物那样准确。
深度学习:深度学习在视觉分析中引起越来越多的关注,因为Krizhevsky et al。 [20]证明了深层CNN在1000级图像分类中的突出性能。他们的成功归功于训练一个深度的CNN,在上百万的图像中学习丰富的中级图像表示。Oquab et al [31]表明,可以用少量的训练数据实现将中级图像表示传送到新域。Chatfield等人 [7]表明,微调领域特定深特征产生比非微调特性更好的性能。通过预训练的深度CNN和深层转移学习,如对象检测[12],图像分割[25]和图像搜索[23],几个视觉分析任务已经大大改善。在最近的深度学习和二进制代码学习研究中,Xia et al [47]和Lai et al [21]采用深度CNN学习一组散列函数,但是它们需要配对相似性标签或三元组训练数据。SSHD [49]在深层CNN中构造散列函数作为潜在层,实现了最先进的图像检索性能,但是它们的方法属于监督学习。深度散列(DH)[24]建立三层分层神经网络学习区分投影矩阵,但他们的方法没有利用深层转移学习,因此使二进制代码效率较低。
相比之下,所提出的DeepBit不仅将从ImageNet预训练的中级图像表示传送到目标域,而且还学习没有标签信息的紧凑但有区别的二进制描述符。我们将展示我们的方法在三个公共数据集上达到比最先进的描述符更好或可比的性能。
3.Approach
图2显示了我们提出的方法的学习框架。我们引入一个无人监督的深度学习方法,称为DeepBit,以学习紧凑但有区别的二进制描述符。不同于以前的工作[9,39-41],优化具有手工特征和配对相似信息的投影矩阵,DeepBit学习一组非线性投影函数来计算紧凑二进制描述符。我们对二进制描述符执行三个重要目标,并使用随机梯度下降技术优化所提出的网络的参数。注意,我们的方法不需要标记的训练数据,并且比监督方法更实用。在本节中,我们首先概述我们的方法,然后在以下部分描述提出的学习目标。
3.1 总体学习目标
所提出的DeepBit通过将投影应用于输入图像来计算二进制描述符,然后对结果进行二值化:
b = 0.5 × (sign(F(x; W)) + 1), (1)
其中x表示输入图像,b是向量形式的结果二进制描述符。sign(k) = 1 if k > 0
and −1 otherwise.F(x; W)是多个非线性投影函数的组合,可以写为:
F(x; W) = f k (· · · f 2 (f 1 (x; w 1 ); w 2 ) · · · ; w k ), (2)
其中f i将数据x i和参数w i作为输入,并且产生投影结果x i + 1。
所提出的方法旨在学习一组非线性投影参数W =(w 1,w 2,...,w k),其将输入图像x量化为紧凑二进制向量b,同时保留来自输入的信息。为了学习紧凑而有区别的二进制描述符,我们执行三个重要的标准来学习W. 首先,所学习的紧凑二进制描述符应保留最后一层的致动的局部数据结构。 在投影之后,量化损耗应尽可能小。第二,我们促进二进制描述符均匀分布,使得二进制字符串将传达更多的歧视消息。第三个是使描述符不变的旋转和噪声,因此二进制描述符将倾向于从输入图像捕获更多不相关的信息。
其中N是每个小批量的训练数据的数量,M是二进制码的位长,R表示图像旋转角。是从具有旋转角度θ的图像x n投影的二进制描述符,C(θ)是根据其旋转度惩罚训练数据的成本函数。此外,α,β和γ是平衡不同目标的三个参数。
为了更好地理解所提出的目标,我们描述(3)的物理意义如下。 首先,L 1使二进制描述符和原始输入图像之间的量化损失最小化。然后,L 2鼓励二进制描述符被均匀分布以最大化二进制描述符的信息容量。 最后,L 3通过最小化描述参考图像的描述符和旋转的描述符之间的汉明距离来容忍旋转变换。我们详细阐述了每个提出的目标的细节如下。
3.2 学习辨别二进制描述符
所提出的DeepBit试图学习将输入图像映射成二进制串,同时保留原始输入的辨别信息的投影。保持二进制描述符信息的灵魂思想是通过重写(1)最小化量化损失如下:
(b − 0.5) = F(x; W), (4)
量化损失越小,二进制描述符将保留原始数据信息越好。不同于以前的工作[13],通过迭代更新W和b两个交替的步骤解决这个问题,我们制定这个优化问题作为神经网络训练目标。从那时起,所提出的网络的目标变成学习使二进制描述符和原始输入图像之间的量化损失最小化的W。为此,我们通过反向传播和随机梯度下降(SGD)使用以下损耗函数来优化所提出的网络的参数W:
3.3 学习高效的二进制描述符
为了增加二进制描述符的信息容量,我们最大化二进制字符串中每个bin的使用。考虑每个仓的方差,熵越高,二进制码表示的信息越多。 其中M表示二进制串的位长度。 对于每个bin,我们使用以下公式计算平均响应μm:
其中N是训练数据的数目,并且函数b(m)产生在第m个二进制位的二进制值。
3.4 学习旋转不变二进制描述符
由于旋转不变性对于局部描述符是必要的,因此我们希望在优化期间增强该属性。我们通过最小化描述参考图像和旋转后的二进制描述符之间的差异来解决这个问题。考虑到图像之间的估计误差,当增加旋转度时,估计误差可能变大。因此,我们通过根据旋转度惩罚网络的训练损失来减轻估计误差。我们将所提出的目标定义为成本敏感的优化问题如下:
其中θ∈(-R,R)是旋转角。表示从输入x n与旋转θ映射的描述符。 C(θ)提供成本信息以反映不同旋转变换之间的二进制描述符的关系。在本文中,我们通过设置以减少估计误差:
其中C(θ)是高斯分布,在我们的实验中nμ= 0,σ= 1。
我们使用开源Caffe实现我们的方法[18],算法1总结了所提出的DeepBit的详细过程。所提出的方法包括两个主要部分。第一个是网络初始化。 二是优化步骤。我们使用来自16层VGGNet [36]的预训练的权重来初始化网络,这是在ImageNet大规模数据集上训练的。然后,我们用新的完全连接的层替换VGGNet的分类层,并强制该层中的神经元学习二进制描述符。为此,我们使用随机梯度下降(SGD)方法和反向传播训练我们的网络,并使用提出的目标优化W(见(3))。其他设置如下所示。α = 1.0, β = 1.0, γ = 0.01.我们分别旋转图像10,5,0,-5,-10度。小批量大小为32,二进制描述符的位长度为256。图像归一化为256x256,然后中心裁剪为224×224作为网络输入。
4.实验结果
我们对三个具有挑战性的数据集,棕色灰色斑块[4],CIFAR-10彩色图像[19]和牛津17类花[29]进行实验。我们提供广泛的评估二进制描述符,并演示其在各种任务,包括图像匹配,图像检索和图像分类的性能。我们从介绍数据集开始,然后介绍我们的实验结果以及与其他最新型的方法比较评价。
4.1 数据集
Brown数据集[4]包括三个数据集,即Liberty,Notre Dame,Yosemite数据集。它们中的每一个包括超过400,000个灰度色块,导致总共1,200,000个色块。每个数据集被分成训练和测试集,分别具有20,000个训练对(10,000个匹配和10,000个非匹配对)和10,000个测试对(5,000个匹配和5,000个不匹配对)。
CIFAR-10数据集[19]包含10个对象类别,每个类由6,000个图像组成,导致总共60,000个图像。数据集被分成训练和测试集,分别有50,000和10,000图像。
牛津17类花数据集[29]包含17个类别,每个类由80个图像组成,导致总共 1 360个图像。
4.3 图像检索实验结果
为了评估所提出的二进制描述符的可辨别性,我们进一步测试我们的方法对图像检索的任务。我们在CIFAR-10数据集上比较DeepBit和几种无监督的哈希方法,包括LSH [2],ITQ [14],PCAH [45],语义哈希[SH] [34],光谱哈希[SpeH] [46] 17],KMH [16]和深度散列(DH)[24]。在这八个无监督方法中,深度散列(DH),像我们的方法,利用深层神经网络学习紧凑二进制代码。
根据[24]中的设置,表2示出了基于前1000个返回图像相对于不同位长度的平均平均精度(mAP)的CIFAR-10检索结果。DeepBit分别相对于16,32和64个散列位将以前的最佳检索性能提高了3.26%,8.24%和10.77%mAP。根据结果,我们发现,哈希位越长,DeepBit实现的性能越好。此外,图6分别示出了具有16,32,64个散列位的不同无监督散列方法的精度/回忆曲线。可以看出,DeepBit 始终优于以前的无监督方法。 这表明所提出的方法有效地学习二进制描述符。值得注意的是,DH [24]采用三层分层神经网络来学习二进制散列码; 然而,DH不利用训练期间的深层转移学习。相比之下,提出的DeepBit不仅将从ImageNet预训练的中级图像表示传输到目标域,而且还学习具有期望标准的二进制描述符。实验表明,深层转移学习与提出的目标可以提高无人监管的哈希性能。
5. 总结
在本文中,我们提出了一个无监督的深度学习框架来学习紧凑二进制描述符。我们采用三个标准来学习二进制代码和估计深度神经网络的参数以获得二进制描述符。我们的方法在学习期间不需要标记数据,并且与监督的二进制描述符相比对于现实世界的应用更加实用。在三个基准数据库上的实验包括灰度局部斑块,彩色图像和野生花卉表明我们的方法在大多数情况下比最先进的特征描述符更好的性能。
本文通过深度学习网络来学习 Compact Binary Descriptors , 亮点是 Unsupervised,在优化函数里面加入了三个约束: 1) minimal loss quantization 2) evenly distributed codes 3) uncorrelated bits
优化函数: L1, L2,L3 分别对应: 1)Discriminative Binary Descriptors 2) Efficient Binary Descriptors 3) Rotation Invariant Binary Descriptors
算法流程如下:
4 Experimental Results 4.2. Results on Image Matching
4.3. Results on Image Retrieval
4.4. Results on Object Recognition
优惠劵
Qiang__zi
关注
关注
1
点赞
踩
0
收藏
觉得还不错?
一键收藏
知道了
0
评论
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks
Kevin Lin , Jiwen Lu , Chu-Song Chen , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数
复制链接
扫一扫
专栏目录
Learning to Hash with Binary DeepNeural Network
12-17
Learning to Hash with Binary Deep Neural Network
CVPR 2011 全部论文标题和摘要
3D Vision
09-21
1万+
CVPR 2011
Tian, Yuandong; Narasimhan, Srinivasa G.; , ■Rectification and 3D reconstruction of curved document images,■ Computer Vision and
参与评论
您还未登录,请先
登录
后发表或查看评论
论文阅读:CVPR2016 Paper list
热门推荐
一亩半分地
05-12
7万+
CVPR2016 accepted paper list
论文笔记 - Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks
qq_32417287的博客
05-06
1705
abstract
Introduction
Related Work
Binary Descriptors
Approach
Overall Learning Objectives
Learning Discriminative Binary Descriptors
Learning Efficient Binary Descriptors
Learning Rotation Invar...
GAN最全论文合集
gdtop的个人笔记
11-25
1万+
已经到2019年了,再回来补充补充,坏消息是GAN的热度已经没有那么高了,一是各种各样的应用坑都被踩完了几乎,二是GAN结构以及不容易训练的问题。
相关论文合集:
Kaiming He大神论文合集
[深度学习论文从0开始]
Transfer Learning[论文合集]
Object Detection[论文合集]
Reinforcement Learning[论文合集]
Unsu...
PCV库和vlfeat实现SIFT特征提取
zhuyuxin66的博客
04-25
483
sift原理介绍,PCV包和vlfeat实现sift描述子提取和匹配
learning_curve(学习曲线)
小麦粒的Python
10-11
2万+
查看模型的学习效果;
通过学习曲线可以清晰的看出模型对数据的过拟合和欠拟合;
学习曲线:随着训练样本的逐渐增多,算法训练出的模型的表现能力;
表现能力:也就是模型的预测准确率,使用均方误差表示;学习率上体现了模型相对于训练集和测试集两类数据的均方误差。
学习曲线( learning curve)是什么?如何绘制学习( learning curve)曲线?学习曲线( learning curve)详解及实践
data+scenario+science+insight
05-04
8835
学习曲线( learning curve)是什么?如何绘制学习( learning curve)曲线?学习曲线( learning curve)详解及实践
学习曲线如何帮助你从数据的角度来查看方差和偏差的关系?
学习曲线的横轴是训练集数据的个数,纵轴是训练数据和交叉验证的评分结果(可以是误差、F1、或者AUC等),其实就是逐步增加样本个数来查看交叉验证的训练集的评分和测试集的评分。
基于交叉验证的训练集的评分和测试集的评分来判断、在样本量多少的时候,模型收敛了或者达到了稳定...
常见特征描述符介绍
zqshust的博客
05-30
4344
系列文章目录
Descriptor描述符提供特征点Keypoint周围的独特信息。本章将介绍基于梯度的描述符和二进制描述符的差异,以及计算速度的优势。
基于梯度的描述符的的代表:Scale Invariant Feature Transform (SIFT);
二进制描述符代表:Binary Robust Invariant Scalable Keypoints (BRISK)
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
文章目录系列文章目录HOG描述符Scale-Invaria
machine learning Neural Networks for Binary Classification
10-09
吴恩达机器学习 Neural Networks for Binary Classification Jupyter note版本编程作业 机器学习与数据挖掘
Deep Hashing for Compact Binary Codes Learning
10-21
简单的介绍了DH(深度哈希),文章是2015年 CVPR 的文章,虽然论文中实验结果并不是很好,但是文章的想法还是很有创新性的:采用深度神经网络。
Learning Channel-wise Interactions for Binary Convolutional Neural Networks.pdf
04-07
一篇论文,提出了BI-CNN模型,能够使二值化神经网络大幅提高精度,在CIFAR-10和IMAGENET数据集上表现良好。
Deep Learning with Python Francois Chollet Keras
04-30
Deep Learning with Python introduces the field of deep learning using the Python language and the powerful Keras library. Written by Keras creator and Google AI researcher François Chollet, this book...
springboot学生毕业离校系统PPT
最新发布
03-06
一年一度的毕业季的到来,方方面面都普及使得学生毕业离校系统的开发成为必需。学生毕业离校系统主要是借助计算机,通过对学生、教师、离校信息、费用结算、论文审核等信息进行管理。为减少管理员的工作,同时也方便广大学生对个人所需毕业离校的及时查询以及管理。
学生毕业离校系统的开发过程中,采用B / S架构,主要使用Java技术进行开发,结合最新流行的springboot框架。中间件服务器是Tomcat服务器,使用Mysql数据库和Eclipse开发环境。该学生毕业离校系统包括管理员、学生和教师。其主要功能包括管理员:首页、个人中心、学生管理、教师管理、离校信息管理、费用结算管理、论文审核管理、管理员管理、留言板管理、系统管理等,前台首页;首页、离校信息、网站公告、留言反馈、个人中心、后台管理等,学生:首页、个人中心、费用结算管理、论文审核管理、我的收藏管理、等,教师:首页、个人中心、学生管理、离校信息管理、费用结算管理、论文审核管理等功能。
本论文对学生毕业离校系统的发展背景进行详细的介绍,并且对系统开发技术进行介绍,然后对系统进行需求分析,对学生毕业离校系统业务信息、系统结构以及数据都进行详细
Java毕设-基于SpringBoot+Vue的宠物商城网站设计与实现(附源码,数据库,教程).zip
03-06
Java 毕业设计,Java 课程设计,基于 SpringBoot 开发的,含有代码注释,新手也可看懂。毕业设计、期末大作业、课程设计、高分必看,下载下来,简单部署,就可以使用。
包含:项目源码、数据库脚本、软件工具等,前后端代码都在里面。
该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。
项目都经过严格调试,确保可以运行!
1. 技术组成
前端:html、javascript、Vue
后台框架:SpringBoot
开发环境:idea
数据库:MySql(建议用 5.7 版本,8.0 有时候会有坑)
数据库工具:navicat
部署环境:Tomcat(建议用 7.x 或者 8.x 版本), maven
2. 部署
如果部署有疑问的话,可以找我咨询
后台路径地址:localhost:8080/项目名称/admin/dist/index.html
前台路径地址:localhost:8080/项目名称/front/index.html (无前台不需要输入)
财富管理系统,全球前10强生产商排名及市场份额调研数据.pdf
03-06
财富管理系统,全球前10强生产商排名及市场份额调研数据
springboot139基于SpringBoot华强北商城二手手机管理系统-毕业源码案例设计
03-06
进入21世纪网络和计算机得到了飞速发展,并和生活进行了紧密的结合。目前,网络的运行速度以达到了千兆,覆盖范围更是深入到生活中的角角落落。这就促使二手交易网站的发展。二手交易网站可以实现远程购物,远程选择喜欢的商品和随时追踪订单的状态。二手交易网站给人们带来前所未有的体验,满足了新时代人们的购物需求,所以网上二手交易模式得到大力发展。
本系统为基于Springboot的华强北商城二手手机管理系统,是采用计算机和网络技术进行开发的在线交易平台,可以实现商品的展示、购买、评价以及销售等。本系统采用Java语言,数据库为Mysql,运行环境为Idea。使用角色分为注册用户、游客、管理员、商家,本系统的功能包括新闻管理、商品信息展示以及管理、注册用户管理、订单管理、商品评价同时还可以管理购物车。其中,游客负责浏览信息,注册用户可以购买商品、评价商品、管理订单,商家可以销售商品管理订单,管理员可以管理所有功能以及个人信息。本系统实现了商品的在线销售与购买,方便了购买者和销售者双方的利益,提高销量和购买效率,更符合现代人生活。
关键词:购物车,用户注册,商品信息管理,订单管理,Java语言
c语言文件读写操作代码
03-06
c语言文件读写操作代码
This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations: AVX AVX这个错误出现的原因
05-24
这个错误出现的原因是你的TensorFlow二进制文件是使用oneAPI Deep Neural Network Library(oneDNN)进行优化的,以在性能关键操作中使用AVX指令集。然而,你的CPU可能不支持AVX指令集。AVX是一种高级指令集,需要支持它的CPU才能够运行使用了AVX指令的程序。如果你的CPU不支持AVX指令,你需要使用一个没有使用oneDNN进行优化的TensorFlow二进制文件或者更新你的CPU以支持AVX指令。
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
Qiang__zi
CSDN认证博客专家
CSDN认证企业博客
码龄10年
暂无认证
96
原创
7万+
周排名
205万+
总排名
26万+
访问
等级
3297
积分
34
粉丝
80
获赞
16
评论
387
收藏
私信
关注
热门文章
机器学习样本特征之间的相似性度量总结
33198
常用latex宏包
19693
Elsevier上发表论文的若干要求
19129
new生成二维数组
17026
斐波那契数列数列的三种时间复杂度的实现方法
12764
分类专栏
pytorch
web
1篇
FFMPEG
JAVA
1篇
数据分析
1篇
Neural Networks
3篇
C++
24篇
Deep learning
31篇
STL_ACM
30篇
Fig
6篇
algorithm
13篇
OpenCV
4篇
software install
6篇
Ubuntu
application
3篇
MAC_基础知识
11篇
杂文
3篇
NLP
1篇
python
5篇
最新评论
常见的几种优化方法
努力征服数学的矩形鱼:
图为什么都看不了啊
window10下labelme的安装与使用(图像分割中数据标注)
VVViolet*:
请问在哪找安装目录呢
常见的几种优化方法
脑壳二:
总结的到位,我的主页有关于代码matlab
机器学习样本特征之间的相似性度量总结
syrnice:
感谢!!!
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
win10 Apach+mod_WSGI+Python3.6部署Flask服务
VS Code使用虚拟环境
java连接SQL2008R2
2021年1篇
2020年3篇
2019年13篇
2018年1篇
2017年48篇
2016年66篇
目录
目录
分类专栏
pytorch
web
1篇
FFMPEG
JAVA
1篇
数据分析
1篇
Neural Networks
3篇
C++
24篇
Deep learning
31篇
STL_ACM
30篇
Fig
6篇
algorithm
13篇
OpenCV
4篇
software install
6篇
Ubuntu
application
3篇
MAC_基础知识
11篇
杂文
3篇
NLP
1篇
python
5篇
目录
评论
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
添加红包
祝福语
请填写红包祝福语或标题
红包数量
个
红包个数最小为10个
红包总金额
元
红包金额最低5元
余额支付
当前余额3.43元
前往充值 >
需支付:10.00元
取消
确定
下一步
知道了
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝
规则
hope_wisdom 发出的红包
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
0
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。
余额充值
Deep Bit lab
Deep Bit lab
Toggle navigation
Deep Bit lab
Home
Publications
Awards
Review
Group
Dr. Zhen Li
Assistant Professor
School of Science and Engineering, CUHKSZ.
Future Network of Intelligence Institute,
CUHKSZ
Shenzhen Research Institute of Big Data
Deep Learning based Brain-like
Interdisciplinary Transfer technology Lab
(Deep Bit Lab)
深度比特实验室
Our Deep Bit Lab focuses on transfering appealing AI technologies for interdisciplinary researches
and brain-like computing.
Practical applications of great significances are our motivations.
"Passions, interests, believes, creatives and diligences" is the slogan for our
Deep Bit Lab.
Interests
Point Cloud Analysis
Protein Structure Prediction
3D Understanding by Multimodal-Data
Medical Big Data
Open Vocabulary Analysis
Interdisciplinary Research
Education
Visiting Scholar, 2018, 2016
TTIC, University of Chicago
PhD. in Hong Kong, 2018
University of Hong Kong
M.A. in China, 2014
Sun Yat-sen University
B.A. in China, 2011
Sun Yat-sen University
Open Opportunities
We have opening positions for Ph.D., M.phil. (Limited quotas for Ph.D.
application, top conferences/journals are required.), Msc and visiting students, which are waiting
for self-motivated talents.
Please send me (lizhen@cuhk.edu.cn) your resume if you are interested in.
news
One paper accepted by TVCG 2023.
One paper accepted by J-BHI 2023.
One paper accepted by TPAMI 2023.
Four papers accepted by ICCV 2023. One as Oral.
One paper accepted by ACM-MM 2023.
Three papers early accepted by MICCAI 2023.
1st Place for HOI4D segmentation on CVPR2023.
Two papers accepted by CVPR 2023.
One papers accepted by TNNLS.
Two papers accepted by AAAI 2023.
Publications
Papers & Publications
*Equal First Author, #Corresponding Author
Chaoda Zheng, Xu Yan*, Haiming Zhang, Boyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#.
An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.
T-PAMI 2023
CODE
Yuncheng Jiang*, Zixun Zhang*, Yiwen Hu*, Guanbin Li, Xiang Wan, Song Wu, Shuguang Cui Fellow, IEEE, Silin Huang#, Zhen Li#.
ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic Polyp Detection.
J-BHI 2023
Ziyi Zhang, Weikai Chen, Chaowei Fang, Zhen Li, Lechao Cheng, Liang Lin, Guanbin Li.
RankMatch: Fostering Confidence and Consistency in Learning with Noisy Labels.
ICCV 2023
Yiran Qin, Chaoqun Wang, Zijian Kang, Ningning Ma, Zhen Li, Ruimao Zhang.
SupFusion: Supervised LiDAR-Camera Fusion for 3D Object Detection.
ICCV 2023
Yueru Luo, Chaoda Zheng, Xu Yan, Kun Tang, Chao Zheng, Shuguang Cui, Zhen Li#.
LATR: 3D Lane Detection from Monocular Images with Transformer, Oral Presentation! (5% in submission).
ICCV 2023
CODE
Hong Yan, Yang Liu, Yushen Wei, Zhen Li, Guanbin Li, Liang Lin.
SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence Pre-training.
ICCV 2023
Rui Sun, Fengwei Zhou, Zhenhua Dong, Chuanlong Xie, Lanqing Hong, Jiawei Li, Rui Zhang, Zhenguo Li, Zhen Li#.
Fair-CDA: Continuous and Directional Augmentation for Group Fairness.
AAAI 2023
Yinghong Liao*, Wending Zhou*, Xu Yan, Shuguang Cui, Yizhou Yu, Zhen Li#
Geometry-Aware Network for Domain Adaptive Semantic Segmentation.
AAAI 2023
Weibing Zhao, Haiming Zhang, Chaoda Zheng, Xu Yan, Shuguang Cui, Zhen Li#.
CPU: Codebook Lookup Transformer with Knowledge Distillation for Point Cloud Upsampling.
ACM-MM 2023
Jun Wei, Yiwen Hu, Shuguang Cui, S. Kevin Zhou, Zhen Li#.
WeakPolyp: You Only Look Bounding Box for Polyp Segmentation.
MICCAI 2023 (Early Accept)
Yuncheng Jiang, Zixun Zhang, Ruimao Zhang, Guanbin Li, Shuguang Cui, Zhen Li#.
YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast Video Polyp Detection.
MICCAI 2023 (Early Accept)
Yuhao Du, Yuncheng Jiang, Shuangyi Tan, Xusheng Wu, Dou Qi, Zhen Li#, Guanbin Li#, Xiang Wan.
ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic Diffusion Models.
MICCAI 2023 (Early Accept)
Xu Yan*, Heshen Zhan*, Chaoda Zheng, Jiantao Gao, Ruimao Zhang, Shuguang Cui, Zhen Li#.
Let Images Give You More: Point Cloud Cross-Modal Training for Shape Analysis.
NeurIPS 2022
Ziyi Zhang, Weikai Chen, Hui Cheng, Zhen Li, Siyuan Li, Liang Lin, Guanbin Li.
Divide and Contrast: Source-free Domain Adaptation via Adaptive Contrastive Learning.
NeurIPS 2022
Yuanfeng Ji, Haotian Bai, Chongjian GE, Jie Yang, Ye Zhu, Ruimao Zhang#, Zhen Li#, Lingyan Zhanng, Wanling Ma, Xiang Wan#, Ping Luo#.
AMOS: A Large-Scale Abdominal Multi-Organ Benchmark for Versatile Medical Image Segmentation
NeurIPS 2022 Track Datasets and Benchmarks
Jun Wei*, Yiwen Hu*, Guanbin Li, Shuguang Cui, S.Kevin Zhou, Zhen Li#
.
BoxPolyp: Boost Generalized Polyp Segmentation using Extra Coarse Bounding Box Annotations
.
MICCAI 2022
Qin Wang, Jiayang Chen, Yuzhe Zhou, Liangzheng Zheng, Zhen Li#, Sheng
Wang, Shuguang Cui.
.
Contact-Distil: Boosting Low Homologous Protein Contact Map Prediction by Self-Supervised Distillation.
AAAI 2022
Guangyi Liu*, Yinghong Liao*, Fuyu Wang, Bin Zhang, Lu Zhang, Xiaodan Liang, Xiang Wan, Shaolin Li, Zhen Li#, Shuixing Zhang and Shuguang Cui.
Medical-VLBERT: Medical Visual Language BERT for COVID-19 CT Report Generation with Alternate Learning.
TNNLS
Dataset
Qin Wang*, Jun Wei*, Boyuan Wang, Zhen Li#, Sheng Wang, Shuguang Cui.
Adaptive Residue-wise Profile Fusion for Low Homologous Protein Secondary Structure Prediction Using
External Knowledge.
IJCAI 2021
Weibing Zhao*, Xu Yan*, Jiantao Gao, Ruimao Zhang, Jiayan Zhang, Zhen
Li#, Song Wu, Shuguang Cui.
PointLIE: Locally Invertible Embedding for Point Cloud Sampling and Recovery.
IJCAI 2021
CODE
Chaoda Zheng*, Xu Yan*, Jiantao Gao, Weibing Zhao, Wei ZhangZhen Li#,
Shuguang Cui.
Box-Aware Feature Enhancement for Single Object Tracking on Point Clouds.
ICCV
Github
Jun Wei, Yiwen Hu, Ruimao Zhang, Zhen Li#, S.Kevin Zhou, Shuguang Cui.
Shallow Attention Network for Polyp Segmentation.
MICCAI2021
Qin Wang, Hui Che, Weizhen Ding, Li Xiang, Guanbin Li, Zhen Li#,
Shuguang Cui.
Colorectal Polyp Classification from White-light Colonoscopy Images via Domain Alignment.
MICCAI2021
Yuanfeng Ji, Ruimao Zhang, Huijie Wang, Zhen Li, Lingyun Wu, Shaoting Zhang, Ping Luo#.
Multi-Compound Transformer for Accurate Biomedical Image Segmentation.
MICCAI2021
Github
Zhihao Yuan, Xu Yan, Yinghong Liao, Ruimao Zhang, Zhen Li#, Shuguang
Cui.
InstanceRefer: Cooperative Holistic Understanding for Visual Grounding on Point Clouds through Instance
Multi-level Contextual Referring.
ICCV
Github
Yufei Han, Qian Zhuang, Bo Sun, Wenping Lv, Sheng Wang, Qingjie Xiao, Bin Pang, Youli Zhou, Fuxing Wang,
Pengliang Chi, Qisheng Wang, Zhen Li, Lizhe Zhu, Fuping Li, Dong Deng,
Ying-Chih Chiang, Zhenfei Li & Ruobing Ren.
Crystal structure of steroid reductase SRD5A reveals conserved steroid reduction mechanism.
Nature Communication
Nature
Jun Wei, Qin Wang, Zhen Li#, Sheng Wang, S.Kevin Zhou, Shuguang Cui.
Shallow Feature Matters for Weakly Supervised Object Localization.
CVPR 2021
CVPR
Qin Wang, Boyuan Wang, Zhenlei Xu, Jiaxiang Wu, Peilin Zhao, Zhen Li#,
Sheng Wang, Junzhou Huang, Shuguang Cui.
PSSM-Distil: Protein Secondary Structure Prediction (PSSP) on Low-Quality PSSM by Knowledge Distillation
with Contrastive Learning.
AAAI 2021
Github
Xu Yan, Jiantao Gao, Jie Li, Ruimao Zhang, Zhen Li#, Rui Huang,
Shuguang Cui.
Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning Contextual Shape Priors from Scene
Completion.
AAAI 2021
Github
Xu Yan, Weibing Zhao, Kun Yuan, Ruimao Zhang, Zhen Li#, Shuguang Cui.
Towards Content-independent Multi-Reference Super-Resolution: Adaptive Pattern Matching and Feature
Aggregation.
ECCV 2020
ECCV2020
Supplementary
Minqing Zhang, Jiantao Gao, Zhen Lyu, Weibing Zhao, Qin Wang, Weizhen Ding, Sheng Wang, Zhen Li#, Shuguang Cui.
Characterizing Label Errors: Confident Learning for Noisy-labeled Image Segmentation.
MICCAI 2020
Github
Springer Link
Xu Yan, Chaoda Zheng, Zhen Li#, Sheng Wang, Shuguang Cui.
PointASNL: Robust Point Clouds Processing using Nonlocal Neural Networks with Adaptive Sampling.
CVPR 2020
arxiv
Github
Ruimao Zhang, Zhanglin Peng, Lingyun Wu, Zhen Li, Ping Luo
.
Exemplar Normalization for Learning Deep Representation
.
CVPR 2020
CVPR
Pengxiang Yan, Guanbin Li, Yuan Xie, Zhen Li, Chuan Wang, Tianshui
Chen, Liang Lin
.
Semi-Supervised Video Salient Object Detection Using Pseudo-Labels
.
ICCV 2019
arxiv
Github
Sheng Wang*, Zhen Li*, Yizhou Yu, Xin Gao
,
WaveNano: a signal-level nanopore base-caller via simultaneous prediction of nucleotide labels
and move labels through bi-directional WaveNets.
.
Quantitative Biology, 2018.
Springer link
Sheng Wang, Siqi Sun, Zhen Li, Renyu Zhang and Jinbo Xu
.
Accurate De Novo Prediction of Protein Contact Map by Ultra-Deep Learning Model
.
PLOS Computational Biology, 2017. (official 1st for CASP12, Highly cited paper of web of science,
PLOS Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.).
arxiv
link to CASP12
Xiaoguang Han*, Zhen Li*, Haibin Huang, Evangelos Kalogerakis, and
Yizhou Yu
.
High-Resolution Shape Completion Using Deep Neural Networks for Global Structure and Local Geometry
Inference
.
ICCV 2017(spotlight, 2.61%)
arxiv
Sheng Wang*, Zhen Li*, Yizhou Yu and Jinbo Xu
.
Folding membrane proteins by deep transfer learning
,
Cell Systems,2017 5(3):202-211.(Cover Letter Paper)
cell page
Zhen Li*, Sheng Wang*, Yizhou Yu and Jinbo Xu,
.
Predicting membrane protein contacts from non-membrane proteins by deep transfer learning
.
The 21st International Conference on Research in Computational Molecular Biology (RECOMB) 2017
arxiv
Zhen Li, Yizhou Yu
,
Protein Secondary Structure Prediction Using Cascaded Convolutional and Recurrent Neural Networks
,
Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence (IJCAI), New York
IJCAI page
Paper repo on Github
Zhen Li, Yukang Gan, Xiaodan Liang, Yizhou Yu, Hui Cheng, and Liang Lin
.
LSTM-CF: Unifying Context Modeling and Fusion with LSTMs for RGB-D Scene Labeling
.
European Conference on Computer Vision (ECCV), Amsterdam
arxiv
Paper repo on Github
Highlighted
Highlighted Projects
An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.
Chaoda Zheng, Xu Yan*, Haiming Zhang, Boyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#.
T-PAMI 2023
CODE
Paper
An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.
Yueru Luo, Chaoda Zheng, Xu Yan, Kun Tang, Chao Zheng, Shuguang Cui, Zhen Li#.
ICCV 2023 (Oral)
CODE
Paper
CPU: Codebook Lookup Transformer with Knowledge Distillation for Point Cloud Upsampling.
Weibing Zhao, Haiming Zhang, Chaoda Zheng, Xu Yan, Shuguang Cui, Zhen Li#.
ACM-MM 2023.
Paper
ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic Polyp Detection.
Yuncheng Jiang*, Zixun Zhang*, Yiwen Hu*, Guanbin Li, Xiang Wan, Song Wu, Shuguang Cui Fellow, IEEE, Silin Huang#, Zhen Li#.
J-BHI 2023
Paper
Let Images Give You More: Point Cloud Cross-Modal Training for Shape Analysis
Xu Yan*, Heshen Zhan*, Chaoda Zheng, Jiantao Gao, Ruimao Zhang, Shuguang Cui, Zhen Li#
NeurIPS 2022
Code
Paper
BoxPolyp: Boost Generalized Polyp Segmentation using Extra Coarse Bounding Box Annotations
Jun Wei*, Yiwen Hu*, Guanbin Li, Shuguang Cui, S.Kevin Zhou, Zhen Li#
MICCAI 2022
Paper
2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds
Xu Yan, Jiantao Gao, Chaoda Zheng, Chao Zheng, Ruimao Zhang, Shuguang Cui, Zhen Li#
ECCV 2022 (The first-place for SemanticKITTI segmentation.)
Paper
Code
Weakly Supervised Object Localization through Inter-class Feature Similarity and Intra-class Appearance
Consistency
Jun Wei, Sheng Wang, S.Kevin Zhou, Shuguang Cui, Zhen Li#
ECCV 2022
Paper
PointSite: A Point Cloud Segmentation Tool for Identification of Protein Ligand Binding Atoms
Xu Yan, Yingfeng Lu, Zhen Li#, Qing Wei, Xin Gao, Sheng Wang, Song Wu,
and Shuguang Cui
JCIM
Paper
Prior knowledge facilitates low homologous protein secondary structure prediction with DSM distillation
Qin Wang, Jun Wei, Yuzhe Zhou, Mingzhi Lin, Ruobing Ren, Sheng Wang, Shuguang Cui, Zhen Li#
Bioinformatics
Paper
X-Trans2Cap: Cross-Modal Knowledge Transfer using Transformer for 3D Dense Captioning
Zhihao Yuan*, Xu Yan*, Yinghong Liao, Yao Guo, Guanbin Li, Zhen Li#,
Shuguang Cui
CVPR 2022
Code
Paper
Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds
Chaoda Zheng, Xu Yan, Haiming Zhang, Baoyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#
CVPR 2022
Code
Paper
Project Page
Medical-VLBERT: Medical Visual Language BERT for COVID-19 CT Report Generation with Alternate Learning
Guangyi Liu, Yinghong Liao, Fuyu Wang, Bin Zhang, Lu Zhang, Xiaodan Liang, Xiang Wan, Shaolin Li, Zhen Li#, Shuixing Zhang and Shuguang Cui
TNNLS
Dataset
Shallow Attention Network for Polyp Segmentation
Qin Wang, Hui Che, Weizhen Ding, Li Xiang, Guanbin Li, Zhen Li#,
Shuguang Cui
MICCAI2021
Crystal structure of steroid reductase SRD5A reveals conserved steroid reduction mechanism
Yufei Han, Qian Zhuang, Bo Sun, Wenping Lv, Sheng Wang, Qingjie Xiao, Bin Pang, Youli Zhou, Fuxing Wang,
Pengliang Chi, Qisheng Wang, Zhen Li, Lizhe Zhu, Fuping Li, Dong Deng,
Ying-Chih Chiang, Zhenfei Li & Ruobing Ren
Nature Communication
Link
Shallow Feature Matters for Weakly Supervised Object Localization
Jun Wei, Qin Wang, Zhen Li#, Sheng Wang, S.Kevin Zhou, Shuguang Cui
CVPR 2021
Github
Box-Aware Feature Enhancement for Single Object Tracking on Point Clouds
Chaoda Zheng, Xu Yan, Jiantao Gao, Weibing Zhao, Wei ZhangZhen Li#,
Shuguang Cui
ICCV 2021
Github
InstanceRefer: Cooperative Holistic Understanding for Visual Grounding on Point Clouds through Instance
Multi-level Contextual Referring
Zhihao Yuan, Xu Yan, Yinghong Liao, Ruimao Zhang, Zhen Li#, Shuguang
Cui
ICCV 2021
Github
PSSM-Distil: Protein Secondary Structure Prediction (PSSP) on Low-Quality PSSM by Knowledge Distillation
with Contrastive Learning
Qin Wang, Boyuan Wang, Zhenlei Xu, Jiaxiang Wu, Peilin Zhao, Zhen Li#,
Sheng Wang, Junzhou Huang, Shuguang Cui
AAAI 2021
Github
Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning Contextual Shape Priors from Scene
Completion
Xu Yan, Jiantao Gao, Jie Li, Ruimao Zhang, Zhen Li#, Rui Huang,
Shuguang Cui
AAAI 2021
Github
Towards Content-independent Multi-Reference Super-Resolution: Adaptive Pattern Matching and Feature
Aggregation
Xu Yan, Weibing Zhao, Kun Yuan, Ruimao Zhang, Zhen Li#, Shuguang Cui
ECCV 2020
Characterizing Label Errors: Confident Learning for Noisy-labeled Image Segmentation.
Minqing Zhang, Jiantao Gao, Zhen Lyu, Weibing Zhao, Qin Wang, Weizhen Ding, Sheng Wang, Zhen Li#, Shuguang Cui.
MICCAI 2020
Github
PointASNL: Robust Point Clouds Processing using Nonlocal Neural Networks with Adaptive Sampling
Xu Yan, Chaoda Zheng, Zhen Li#, Sheng Wang, Shuguang Cui
CVPR 2020
Paper repo on Github
MetaSelection: Metaheuristic Sub-Structure Selection for Neural Network Pruning Using Evolutionary
Algorithm
Zixun Zhang, Zhen Li#, Lin Lin, Na Lei, Guanbin Li, ShuguangCui
ECAI 2020
High-Resolution Shape Completion Using Deep Neural Networks for Global Structure and Local Geometry
Inference
Xiaoguang Han* ; Zhen Li* ; Haibin Huang ; Evangelos Kalogerakis ; Yizhou Yu
International Conference on Computer Vision (ICCV), Venice, October 2017.
(ICCV spotlight, 2.61%)
Folding Membrane Proteins by Deep Transfer Learning
Sheng Wang*, Zhen Li*, Yizhou Yu and Jinbo Xu
Cell Systems,2017 5(3):202-211.(Cover Letter Paper)
Cell Seystms Page
Accurate De Novo Prediction of Protein Contact Map by Ultra-Deep Learning Model.
Sheng Wang, Siqi Sun, Zhen Li, Renyu Zhang, Jinbo Xu
PLOS Computational Biology, 2017 (official 1st for CASP12, Highly cited paper of web of science, PLOS
Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.)
PLOS page
link to CASP12
LSTM-CF: Unifying Context Modeling and Fusion with LSTMs for RGB-D Scene Labeling
Zhen Li, Yukang Gan, Xiaodan Liang, Yizhou Yu, Hui Cheng, and Liang Lin
ECCV 2016
Paper repo on Github
Protein Secondary Structure Prediction Using Cascaded Convolutional and Recurrent Neural Networks
Zhen Li, Yizhou Yu
Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence (IJCAI), New
York
Paper repo on Github
Awards
Awards & Honors
*
The 1-st for 4D semantic segmentation of HOI4D@CVPR2023
The 3-rd for 4D action segmentation tracks of HOI4D@CVPR2023
The 1-st in the public leaderboard of SemanticKITTI in both single and multiple scan(s) semantic segmentation tasks!
Candidate for the 7th China Association for Science and Technology Young Talent Support Project
CCF-Tencent Rhino bird 2019 Award.
PLOS Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.
The first-place for SemanticKITTI segmentation
(https://competitions.codalab.org/competitions/20331)
The first-place for CAMEO protein Quality estimation
(https://cameo3d.org/quality-estimation/)
The 2nd Place for Urban3D at ICCV 2021
(https://urban3dchallenge.github.io/)
Champion of Contact-map Prediction for CASP12
(http://www.predictioncenter.org/casp12/index.cgi)
Professional activities
Conference Reviewer/Program Committee
& Journal Reviewer
Conference Reviewer/Program Committee
IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 2022
European Conference on Computer Vision (ECCV): 2022
AAAI Conference on Artificial Intelligence (AAAI): 2022
Medical Image Computing and Computer Assisted Intervention (MICCAI): 2020-2022
International Conference on Computer Vision (ICCV): 2019-2021
Journal Reviewer
IEEE Transactions on Neural Networks and Learning Systems (TNNLS), 2020
IEEE Transactions on Multimedia (TMM), 2018
Teaching
Classroom & Workshop leadership
CIE6032&MDS6232
Deep Learning and its Applicaitons
EIE4512
Digital Image Processing
Current Students
Postdoc
Yatong Han
Multimodal Learning Graph Learning Computational Biological2022, Ph.D., Harbin Engineering
University
Ph.D. Students
Ph.D. Year 4
Yinghong Liao
Domain Adaptation, Multi-modal2020, B.S., Sun Yat-sen University
Yiwen Hu
Medical Image Analysis2020, B.S., Anhui Medical University
Wending Zhou
Domain Adaptation2020, B.S., University of Waterloo
Yuncheng Jiang
Medical Image Analysis2020, B.S., University of Electronic Science and Technology of China
Chaoda Zheng
Point Cloud Analysis 2020, M.S. & B.S., South China University of TechnologySRIBD Fellowship
Jun Wei
Weakly Supervised learningMedical Image Analysis 2020, M.S., Institute of Computing
Technology, Chinese Academy of Sciences B.S., HUST CUHKSZ Presidential Fellowship
Ph.D. Year 3
Zixun Zhang
NAS, Pruning, Knowledge Distillation2021, M.S. & B.S., Dalian University of Technology
Haiming Zhang
Point Cloud, Talking Face, GAN2021 M.S. & B.S., Beijing Institute of Technology
Zhihao Yuan
Vision and Language 3D Scene Understanding2021, B.S., Sun Yat-sen University
Zhuo Li
Long-tailed Vision Recognition2021, B.S., Central South University
Ph.D. Year 2
Shuangyi Tan
Medical Image Analysis2022 M.S., London's Global University; B.S., South China University of
Technology
Rui Sun
Domain GeneralizationGAN, AI Fairness2021, M.S., CityU
Yuzhe Zhou
Protein Structure Analysis2021, M.S., HKUST2020, B.S., University of Electronic Science and
Technology of China
Chao Zhan
Diffusion Model
Yueru Luo
3D Lane Detection.
Ph.D. Year 1
Yuxin Cheng
Multi-Modal Representation Learning.
Research Assistant
Jiajian Ma
Computational Neuroscience Medical Image Analysis2021 M.D., Peking University Health Science
Center
Alumni
Guangyi Liu (MBZUAI, Postdoc)
Weibing Zhao (The Hong Kong Polytechnic University (PolyU), Postdoc)
Xu Yan (Senior researcher at Huawei Noah's Ark Lab)
Qin Wang (CTO of Starups)
Huijun Xing (PhD, UCL)
Shen Gao (Huawei)
Weizhen Ding (China Electronics Technology Group)
Yingfeng Lu (PhD, UBC)
Contact
lizhen@cuhk.edu.cn
+86 755-23519595
广东省深圳市龙岗区龙翔大道2001号香港中文大学(深圳)TC410b(邮编:518172)
email for appointment
Dr. Zhen Li (Jason Lee), Ph.D. (University of Hong Kong);
Assistant Professor, School of Science and Engineering, CUHK-SZ (lizhen@cuhk.edu.cn);
Research Scientist, Future Network of Intelligence Institute (FNII) (+86 755-23519595)
×
Cite
Copy
Download
GitHub - kevinlin311tw/cvpr16-deepbit: Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)
GitHub - kevinlin311tw/cvpr16-deepbit: Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)
Skip to content
Toggle navigation
Sign in
Product
Actions
Automate any workflow
Packages
Host and manage packages
Security
Find and fix vulnerabilities
Codespaces
Instant dev environments
Copilot
Write better code with AI
Code review
Manage code changes
Issues
Plan and track work
Discussions
Collaborate outside of code
Explore
All features
Documentation
GitHub Skills
Blog
Solutions
For
Enterprise
Teams
Startups
Education
By Solution
CI/CD & Automation
DevOps
DevSecOps
Resources
Learning Pathways
White papers, Ebooks, Webinars
Customer Stories
Partners
Open Source
GitHub Sponsors
Fund open source developers
The ReadME Project
GitHub community articles
Repositories
Topics
Trending
Collections
Pricing
Search or jump to...
Search code, repositories, users, issues, pull requests...
Search
Clear
Search syntax tips
Provide feedback
We read every piece of feedback, and take your input very seriously.
Include my email address so I can be contacted
Cancel
Submit feedback
Saved searches
Use saved searches to filter your results more quickly
Name
Query
To see all available qualifiers, see our documentation.
Cancel
Create saved search
Sign in
Sign up
You signed in with another tab or window. Reload to refresh your session.
You signed out in another tab or window. Reload to refresh your session.
You switched accounts on another tab or window. Reload to refresh your session.
Dismiss alert
kevinlin311tw
/
cvpr16-deepbit
Public
Notifications
Fork
79
Star
173
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)
License
View license
173
stars
79
forks
Branches
Tags
Activity
Star
Notifications
Code
Issues
15
Pull requests
0
Actions
Projects
0
Security
Insights
Additional navigation options
Code
Issues
Pull requests
Actions
Projects
Security
Insights
kevinlin311tw/cvpr16-deepbit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
masterBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History10 Commitsanalysisanalysis cmakecmake datadata docsdocs examplesexamples include/caffeinclude/caffe matlabmatlab modelsmodels pythonpython scriptsscripts srcsrc toolstools .Doxyfile.Doxyfile .gitignore.gitignore .travis.yml.travis.yml CMakeLists.txtCMakeLists.txt CONTRIBUTING.mdCONTRIBUTING.md CONTRIBUTORS.mdCONTRIBUTORS.md INSTALL.mdINSTALL.md LICENSELICENSE MakefileMakefile Makefile.config.exampleMakefile.config.example README.mdREADME.md aug_img.maug_img.m aug_img_faster.maug_img_faster.m caffe.cloccaffe.cloc prepare.shprepare.sh run_cifar10.mrun_cifar10.m startup.mstartup.m View all filesRepository files navigationREADMELicenseCVPR16-DeepBit
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks
Created by Kevin Lin, Jiwen Lu, Chu-Song Chen, Jie Zhou
Introduction
We propose a new unsupervised deep learning approach to learn compact binary descriptor. We enforce three criterions on binary codes which are learned at the top layer of our network: 1) minimal loss quantization, 2) evenly distributed codes and 3) rotation invariant bits. Then, we learn the parameters of the networks with a back-propagation technique. Experimental results on three different visual analysis tasks including image matching, image retrieval, and object recognition demonstrate the effectiveness of the proposed approach.
The details can be found in the following CVPR 2016 paper
Citation
If you find DeepBit useful in your research, please consider citing:
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks
Kevin Lin, Jiwen Lu, Chu-Song Chen and Jie Zhou
IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016
Prerequisites
MATLAB (tested with 2015a on 64-bit Ubuntu)
Caffe's prerequisites
Installation
Adjust Makefile.config and simply run the following commands:
$ make all -j8
$ make matcaffe
For a faster build, compile in parallel by doing make all -j8 where 8 is the number of parallel threads for compilation (a good choice for the number of threads is the number of cores in your machine).
Retrieval evaluation on CIFAR10
First, run the following command to download and set up CIFAR10 Dataset, VGG16 pre-trained on ILSVRC12, DeepBit 32-bit model trained on CIFAR10. This script will rotate training data and create leveldb files.
$ ./prepare.sh
Launch matalb and run run_cifar10.m to perform the evaluation of precision at k and mean average precision at k. We set k=1000 in the experiments. The bit length of binary codes is 32.
>> run_cifar10
Then, you will get the mAP result as follows.
>> MAP = 0.25446596
Note: CIFAR10 dataset is split into training and test sets, with 50,000 and 10,000 images, respectively. During retrieval process, the 50,000 training images are treated as the database. We use the 10,000 test images as the query samples.
Train DeepBit on CIFAR10
Simply run the following command to train DeepBit:
$ cd /examples/deepbit-cifar10-32
$ ./train.sh
The training process takes a few hours on a desktop with Titian X GPU.
You will finally get your model named DeepBit32_final_iter_1.caffemodel under folder /examples/deepbit-cifar10-32/
To use the model, modify the model_file in run_cifar10.m to link your model:
model_file = './YOUR/MODEL/PATH/filename.caffemodel';
Launch matlab, run run_cifar10.m and test the model!
>> run_cifar10
Resources
Note: This documentation may contain links to third party websites, which are provided for your convenience only. Third party websites may be subject to the third party’s terms, conditions, and privacy statements.
If the automatic "fetch_data" fails, you may manually download the resouces from:
For ./prepare.sh:
VGGNet pre-trained on ILSVC12: MEGA, Dropbox
DeepBit 32bit model pre-trained on cifar10: MEGA, Dropbox
CIFAR10 dataset (jpg format): MEGA, Dropbox, BaiduYun
DeepBit models in the paper:
The proposed models trained on CIFAR10:
16-bit model: MEGA, Dropbox
32-bit model: MEGA, Dropbox
64-bit model: MEGA, Dropbox
Experiments on Descriptor Matching and Object Recognition
comming soon...
Contact
Please feel free to leave suggestions or comments to Kevin Lin (kevinlin311.tw@iis.sinica.edu.tw), Jiwen Lu (lujiwen@tsinghua.edu.cn) or Chu-Song Chen (song@iis.sinica.edu.tw)
About
Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)
Resources
Readme
License
View license
Activity
Stars
173
stars
Watchers
23
watching
Forks
79
forks
Report repository
Releases
No releases published
Packages
0
No packages published
Contributors
2
Languages
C++
80.6%
Python
9.0%
Cuda
4.5%
CMake
3.0%
MATLAB
1.7%
Makefile
0.7%
Shell
0.5%
Footer
© 2024 GitHub, Inc.
Footer navigation
Terms
Privacy
Security
Status
Docs
Contact
Manage cookies
Do not share my personal information
You can’t perform that action at this time.
btt还有救吗,一直跌一直横盘? - 知乎
btt还有救吗,一直跌一直横盘? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册股票股市分析股票分析btt还有救吗,一直跌一直横盘?关注者4被浏览6,936关注问题写回答邀请回答好问题 2添加评论分享2 个回答默认排序龙凤呈祥 佛山电器照明股份有限公司 技术员 关注在了解了挖矿的概念后,我们不禁要问:怎样挖矿呢?简单的说,任何一台电脑都可以下载专业挖矿软件来进行挖矿,只是效率跟据不同机器的硬件配置状况差别而有所不同罢了。早其,矿工们使用CPU(中央处理器)来挖矿,到后来GPU(显卡)逐渐的取代了利用C在了解了挖矿的概念后,我们不禁要问:怎样挖矿呢?简单的说,任何一台电脑都可以下载专业挖矿软件来进行挖矿,只是效率跟据不同机器的硬件配置状况差别而有所不同罢了。早其,矿工们使用CPU(中央处理器)来挖矿,到后来GPU(显卡)逐渐的取代了利用CPU的挖矿方式。现在为了更有效的挖矿,甚至有人用ASIC(专用集成电路)的专用设备来挖矿。现在,从挖矿的方式来说,主要有两种:1、比特币挖矿软件目前流行的比特币挖矿软件主要有两款,分别是“GUIMiner”和“CGMiner”。GUIMiner有良好的图形化的界面,通过简单的操作便可以掌握。它同时支持ATI和NVIDIA GPU,以及CPU开采。它同时支持个人挖矿模式和集体挖矿模式,并且有矿池列表。CGMiner支持多线程、多矿池、ASIC、ATI挖矿。但是需要在命令行终端进行操作,操作较为复杂。优点是支持windows、linux、mac等多个平台。2、利用比特币矿池挖矿目前全世界有三大矿池,分别是Deepbit、BitcoinCz和BTC Guild。Deepbit是世界上最大的比特币矿池。在注册以后下载挖矿客户端便可以挖矿。另外两个矿池也是如此,唯一不同是收取矿工手续费的算法不同,所以矿工的收益也会有差异。要注意的是Deepbit提供按每股模式和按比例两种收费方式。按每股收费方式收费较高但是比较稳定,按比例收费模式有时很低但是不稳定。你可以选择适合的类型。BitcoinCz按照每开采25个比特币来分配矿工的收益。公式是:(25 BTC + 区块费用 – 2% 手续费) * (矿工股份) / (总股份)BTC Guild 公会收取款项的矿工提供了两种方法。按每次股份收费(PPS)稳定在7.5%的手续费和最近股份(PPLNS)收费,为 3%手续费 +区块交易费。最后看一篇BTT还有投资价值吗?BTT比特流投资价值怎么样?的最新资讯:比特币大涨至交易所,分析师预计比特币将回落至8800美元随着 比特币 走低,交易者将 比特币 转移到交易所,CryptoQuant预计 比特币 将“小幅”回落至9000美元以下。一位分析师警告称, 比特币 ( 比特币4 )逼近9000美元的支撑位,这可能会导致交易所用户大举抛售。根据CryptoQuant的数据,7月15日, 比特币 流入交易所的数量激增。Kraken公布每日有3850万美元的 比特币 流入当交易者从私人 比特币 钱包将 比特币 转移到交易所时,这表明他们希望在短时间内进行交易或出售。反之亦然——据Cointelegraph报道,交易所余额出现了长期下降趋势,在5月份跌至2018年末以来的最低点,当时 比特币4 /USD跌至3100美元。CryptoQuant表示,如今,对疲弱的价格表现的紧张情绪似乎在发出一个信号,为下行波动做好准备。根据主流交易平台Kraken的数据显示,周三有4229个 比特币 (3850万美元)进入交易所,远远超过过去几周500 个 比特币 (455万美元)的平均数量。尽管数据被公布,但Kraken可能正在呈现一种异常情况,这并不能反映交易员的普遍情绪,但总体情况显然是看跌的。CryptoQuant首席执行官Ki Young,Ju在私下里对Cointelegraph表示:“我预计会有小幅回落”。Ki补充说,如果抛售开始,他预计不会达到3月份以来的水平,当时一连串的短期事件使 比特币4 /USD在数小时内暴跌了一半。他表示:“在我看来, 比特币 价格大约会跌至8800美元。”比特币流入交易所三周图表来源:cryptoquant这个数字没有最近其他的目标那么悲观。本周早些时候,Cointelegraph分析师filbfilb强调, 比特币 20周移动均线切入位为8200美元,这是一个现实的买入支撑区。与此同时,对所有交易所而言,资金流入仍远低于3月份暴跌时的水平,这表明投资者仍倾向于持有而非抛售。比特币流入交易所一年图表来源:cryptoquant比特币4的价格下跌了近9000美元比特币 仍然与宏观市场的走势密切相关,而宏观市场本身受冠状病毒和中美地缘政治紧张局势的影响。这种现状很难改变,这是造成自6月第三周以来 比特币4 /USD未能退出交易通道的原因。比特币4/USD 1日线图来源:coinmarketcap截至发稿时, 比特币4 /USD价格为9080美元,抛压似乎与CryptoQuant的预测相符。发布于 2021-05-04 17:48赞同 22 条评论分享收藏喜欢收起学海无涯计算机软件开发与编程
区块链技术研究爱好者 关注耐心持有,变盘时间节点估计5月中旬,拉新高快速出货,回调低位接回发布于 2021-05-05 23:26赞同2 条评论分享收藏喜欢收起
Unsupervised Deep Learning of Compact Binary Descriptors | IEEE Journals & Magazine | IEEE Xplore
Unsupervised Deep Learning of Compact Binary Descriptors | IEEE Journals & Magazine | IEEE Xplore
IEEE Account
Change Username/Password
Update Address
Purchase Details
Payment Options
Order History
View Purchased Documents
Profile Information
Communications Preferences
Profession and Education
Technical Interests
Need Help?
US & Canada: +1 800 678 4333
Worldwide: +1 732 981 0060
Contact & Support
About IEEE Xplore
Contact Us
Help
Accessibility
Terms of Use
Nondiscrimination Policy
Sitemap
Privacy & Opting Out of Cookies
A not-for-profit organization, IEEE is the world's largest technical professional organization dedicated to advancing technology for the benefit of humanity.© Copyright 2024 IEEE - All rights reserved. Use of this web site signifies your agreement to the terms and conditions.