Imtoken安卓版钱包下载|deepbit

作者: Imtoken安卓版钱包下载
2024-03-07 18:08:37

DeepBit - Bitcoin Wiki

DeepBit - Bitcoin Wiki

DeepBit

From Bitcoin Wiki

Jump to: navigation, search

DeepBit

Websitedeepbit.net

DeepBit was a mining pool. The site currently reports a hash rate of 0 Gh/s[1], many users report the pool as abandoned[2] and the last block seems to have been found on 28. November 2013[3]. The pool operator who opened the announcement / support thread on the BitcoinTalk Forum was last active on 16. March 2014[4].

This pool aimed to provide a simple reward sharing scheme and fast payments. It was once the biggest mining pool and at one point had more than 50% of the overall hash power at the time[5].

The service was first available for beta testing starting February 26, 2011[6].

Contents

1 Reward distribution

2 ASIC hardware

3 See Also

4 References

Reward distribution

Proportional: 3% fee.

Pay-Per-Share mode: Current rate shown on website.

ASIC hardware

On September 10th, 2012, the owner of DeepBit announced plans for a custom Bitcoin mining ASIC termed Reclaimer.[7]. On April 8th, 2013, cancellation of the project was announced, citing lack of public interest.[8]

See Also

Comparison of mining pools

Pooled Mining

References

↑ Web site

↑ Re: (1.3 TH) DeepBit.net PPS+Prop,instant payouts, we pay for INVALID BLOCKS too

↑ Re: (1.3 TH) DeepBit.net PPS+Prop,instant payouts, we pay for INVALID BLOCKS too

↑ View the profile of DeepBit

↑ deepbit has 50.18 % now

↑ New mining pool with proportional reward distribution

↑ https://bitcointalk.org/index.php?topic=108375

↑ https://bitcointalk.org/index.php?topic=108375.msg1767578#msg1767578

Mining pools

Background • ComparisonMajor

Bitfury • BTC Guild • BW • Eligius • F2Pool • KanoPool • P2Pool • PolMine • Slush's pool • Tangpool • Poolin • SBICrypto

Active

50BTC • AntPool • Bitalo • Bitcoin Affiliate Network • Bitfinex • BitMinter • BTCDig • btcmp • CloudHashing • EclipseMC • Give Me COINS • Golden Nonce Pool • mmpool • MinerGate • Multipool • Halleychina.com • Ozco.in • TripleminingFledgling

Cucumber PoolSolo

BitSolo • solo.ckpoolDefunct

21bitcoin • ABCPool.co • ArsBitcoin • Betcoin.co Pool • Bitalo • BitClockers • Bitcoin-Station • BitcoinMining.Co • BitcoinPool.com • Bitcoins.lc • Bitp.it • BitPenny • BTC Canada • BTCMine • BtcPool.ru • BTCPoolman • Coinium • Coinotron • Compute 4 Cash • Continuum • DeepBit • Galaxy • GHash.IO • HHTT • KnCMiner • MegaBigPower • MineCo.in • Mining Team Reddit • Nexious • NoFeeMining • PolishPool • pool.itzod.ru • rfcpool • Simplecoin.us • Swepool • UnitedMiners • x8s • XKCD Pool

Retrieved from "https://en.bitcoin.it/w/index.php?title=DeepBit&oldid=55672"

Categories: CompaniesPool Operators

Navigation menu

Personal tools

Create accountLog in

Namespaces

Page

Discussion

Variants

Views

Read

View source

View history

More

Search

Navigation

Main pageBitcoin FAQEditing helpForumsChatroomsRecent changesPage index

Tools

What links hereRelated changesSpecial pagesPrintable versionPermanent linkPage information

Sister projects

EssaysSource

This page was last edited on 24 March 2015, at 17:34.

Content is available under Creative Commons Attribution 3.0 unless otherwise noted.

Privacy policy

About Bitcoin Wiki

Disclaimers

Bit Design | Imreg Bits | Bi-Center Bits | Large Diameter Hole Opening Bits - DEEP BIT

Bit Design | Imreg Bits | Bi-Center Bits | Large Diameter Hole Opening Bits - DEEP BIT

Home

Company Profile

Products & Services

orBIT Series

DM and DS Series

Core Bits – DC Series

Optional Features

Impreg Bits

Bi-Center Bits

Large Diameter Hole Opening Bits

Resources

Contact Us

Toggle navigation

Home

Company Profile

Products & Services

orBIT Series

DM and DS Series

Core Bits – DC Series

Optional Features

Impreg Bits

Bi-Center Bits

Large Diameter Hole Opening Bits

Resources

Contact Us

THE RIGHT BIT FOR ANY JOB

Custom designed for challenging applications around the world

Contact us at Call: +86 28 83961208 or Email info@deep-bits.com

Drilling Down

orBIT Series

DM and DS Series

Core Bits – DC Series

Optional Features

Featured products

orBIT Series

Each orBIT is defined by its consistent drilling performance that utilizes proprietary software and tools to analyze cutter contact area, cutting volume, cutting direction, cutter stresses, and overall force balancing.

Learn More

Featured products

DM and DS Series

DEEPBIT D Series bits have already become a drilling industry standard of consistent performance over the last 18 years. Utilizing advanced Cutter PDC technology (comparable to deep leached cutters), ultra-efficient cutter layout force balancing, improved erosion resistant material, and enhanced hydraulics.

Learn More

Featured products

Core Bits – DC Series

DEEP BIT’s Coring bits are all based on a tungsten carbide matrix body structure with a

steel body frame, and inside and outside gauges made of natural diamond.

Learn More

Featured products

Optional Features

Spiraled blades have been shown to reduce the potential for bit whirl and make a PDC drill bit much more stable during drilling.

Learn More

orBIT Series

DM and DS Series

Core Bits – DC Series

Optional Features

Drilling Down

DESIGN AND ENGINEERING

Great performance for all applications

Field Data Analysis

Bit Design Analysis

X-Ray Imaging Technology

Hydraulic Simulation

Cutter Technology

Drilling Down

Company Profile

DEEP BIT has over seventeen years of experience supplying quality products and services to customers worldwide. In China DEEP BIT holds the leading market share and top performance position for almost all Onshore and Offshore applications.

Learn More

Drilling Down

Our Clients include

Company ProfileHistory

Certifications

QA/QC

Design and Engineering

Our Clients include

Products & ServicesorBIT Series

DM and DS Series

Core Bits – DC Series

Optional Features

Impreg Bits

Bi-Center Bits

Large Diameter Hole Opening Bits

ResourcesBrochures

Reference

Contact Us

© CopyRight © 2020 Deepbit All Rights Reserved 蜀ICP备13021 川公网安备 51019002001930号

Privacy Policy

Digital Agency

We use necessary cookies to make our site work. We also set Google analytics cookies to help us improve the user experience.Ok, I agreed

五分钟了解比特币私钥的转码与使用 - 知乎

五分钟了解比特币私钥的转码与使用 - 知乎首发于比特币/Bitcoin切换模式写文章登录/注册五分钟了解比特币私钥的转码与使用柠檬不萌S凡是关心自己的比特币财产安全的人都应该试着理解下图:数字如果你完全理解二进制、十进制和十六进制,可以跳过这部分。十进制指每一位数都有 10 种可能(0、1、2、3、4、5、6、7、8 或 9)。数字 “6.15” 有 3 位数(顺带一提,6.15 这个数字是有特殊含义的,即,每个人都应该努力拥有 6.15 个比特币)。第一个数是 “6”,第二个数是 “1”,第三个数是 “5”。这三个数可以是 0、1、2、3、4、5、6、7、8、9 中的任何一个。在十进制中,我们从 “0” 数到 “9”(0、1、2、3、4、5、6、7、8、9)就没有新的数了,接下来就要在左边新增一位 “1”(即,逢十进一),得到 “10”,然后再从 “0” 开始数起 —— 原先的 “9” 进了一位,十位数变成了 “1”,个位数变成了 “0”。二进制指每一位数只有两种可能(“0” 和 “1”)。在二进制中,我们从 “0” 数起,然后是 “1” ,接着就是 “10”!看见没?如果你觉得跨度很大,那是因为你还没有跳出十进制思维。在十进制中,“10” 就是普通人的手指数量 —— 因为我们有 10 个手指,所以我们人类常用 10 进制。但是,在二进制中,“10” 就是一个人的大拇指的数量。想象一下用你的大拇指数数:1、10、11、100、101、111、1000、1001…… (译者注:这几个数字换算成十进制就是 1、2、3、4 ……)如果这是你第一次了解二进制,可以用纸和笔自己算一下,可能会有帮助。这就像是第一次学习数数那样,而且还不能靠直觉。十六进制指每一位数有 16 种可能(0、1、2、3、4、5、6、7、8、9、a、b、c、d、e、f)。其中,a=10、b=11、c=12、d=13、e=14 和 f=15。就像扑克牌游戏一样,Jack=11、Queen=12、King=13、Ace=14 或 1。一个字母可以代表一个数字,这就是关键。每一位数的可能性越多,表达一个大数字所用的位数就越少。例如,十进制下的 2047 ,写成二进制就是 11111111111(11 位数),写成十六进制就是 7FF。总结:随机二进制数、校验和、私钥私钥首先是一个二进制数,可以转换成其它形式。但是,私钥本质上是二进制数,因为它是为了给计算机使用的。下面是二进制私钥的一个例子:01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 00100111111请注意,这个私钥由 24 组数字组成,每 11 个数字为一组,共计 264 个二进制数字(24×11=264)。计算机看到的私钥虽然是同一串数字,但是没有空格:010000111111010111011001001000001010011010001000010001110001011011001001101111101000001111001000001101111100100001010100000101110110011000011011100001001101101111001110010101111001101000001001110000010000100100000111001110011110101110001100111010110111000100111111这是个很大的数字,写成十进制就是:7,869,270,257,961,728,227,967,109,454,183,816,220,476,881,432,001,550,169,555,390,346,110,510,455,025,983请注意这两个数的值是一样的,区别只在于十进制写起来更短。总之,私钥有一部分是随机生成的,而最后 8 位(叫作校验和(checksum))是以前面的随机部分作为输入通过一个公式计算得出的。这是一种(软件钱包共同认可的)工程设计:如果数据输入不正确,计算机就会发现校验和与输入数据不匹配,并警告用户。钱包会提示 “抱歉,您的输入可能有误” 。当然,用户可以强行选择继续。校验和并非比特币代码的一部分,是为了保障用户安全而引入的。换言之……从数学设计上来讲,在创建私钥时,下面这个随机部分……01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 001只会生成下面这个校验和……00111111把二者结合起来就得到了最终的私钥。点击此处,了解私钥是怎么来的,以及校验和是如何计算的。请注意,8 位数的校验和与末尾 3 个随机数字组合起来刚好是一组 11 位数字,与其它几组一样(在 BIP39 标准下,一个单词需要 11 位数表达,详见下文)。不同的 随机 二进制数会产生不同的校验和。假设用户在钱包里输入私钥,并声称 “这是我之前生成的私钥,请显示我的地址”,只要有一位数字错误,软件钱包都会发现并发出警告。请原谅我有些啰嗦,但是掌握这些背景知识真的很重要。私钥转换人类很难准确记录下一个二进制私钥并将其输入软件钱包。一旦发生错误,就有可能导致比特币丢失。手写无法使用校验和来检查错误,只有输入计算机才可以。一种解决方案是将二进制数转化成十进制数,让私钥变得更短、更好记。假设一个二进制数被切分成每 11 个数字一组,则每一组数最多可以表示 2048 个十进制数(可表示的十进制数范围是 “0” 至 “2047”)。“0” 至 “2047” 转化成二进制就是 “00000000000” 至 “11111111111”。我们可以将这个私钥转换成 24 组十进制数,每组十进制数的范围是 “0” 至 “2047”。这样写起来容易,但还是容易出错。BIP39 可以有效化解这一风险。这个协议建议比特币用户使用一列由协议定义过的单词表,我猜测这些单词是经过精挑细选的,以防被误读成其它单词。BIP 39 单词表共包含 2048 个单词,按照字母顺序排列。点击此处,查看列表。除了英文版,还有其它语言版本。每个单词都代表 “0” 至 “2047” 之间的某个数字。这样一来,私钥中的每个十进制数都可以被写成一个单词。数字和所对应的单词之间有什么特殊联系吗?没有,这只是由协议定义的,只要我们都使用这个协议,那么单词与数字之间就可以画上等号。这就是助记词(seed words)的由来。你在软件钱包中输入助记词后,每个单词都会转化成 11 个二进制位,将它们组合起来就会形成一个 264 位的二进制数,也就是私钥(还记得吗?最后一个单词包含校验和,因此不是随机的)。如果是由 12 个单词组成的助记词,私钥的长度只有一半,也就是 132 位。遗憾的是,原始的 BIP 39 单词表存储在 GitHub 内,代表的十进制数范围是 “1” 至 “2048”,而非 “0” 至 “2047”。这只是 Github 格式的问题,而非有意设计成如此。为了清楚地说明这个问题,我们来举个例子。假设某个私钥的开头是 11 个 “0”,例如 “00000000000”,那么我们要用单词表上的第一个单词来表示这个二进制数。第一个单词是 “abandon”,表示的是 “00000000000”,但是被标记成了 “1”。这是不对的。十进制数 “1” 转化成二进制是 “00000000001”,这不是我们想要的。但是,由于格式的问题,单词表上所有单词的序号都比它们实际代表的十进制数大了 “1”。我们还可以通过抛硬币来生成二进制数。计算机可以帮助我们获得使用斜体表示的最后 8 位数:010000111111010111011001001000001010011010001000010001110001011011001001101111101000001111001000001101111100100001010100000101110110011000011011100001001101101111001110010101111001101000001001110000010000100100000111001110011110101110001100111010110111000100111111我们首先要做的,是将这个二进制数按照每 11 个数为一组进行切分:01000011111 10101110110 01001000001 01001101000 10000100011 10001011011 00100110111 11010000011 11001000001 10111110010 00010101000 00101110110 01100001101 11000010011 01101111001 11001010111 10011010000 01001110000 01000010010 00001110011 10011110101 11000110011 10101101110 00100111111接下来,我们将每一组数转化成十进制数:543, 1398, 577, 616, 1059, 1115, 311, 1667, 1601, 1522, 168, 374, 781, 1555, 889, 1623, 1232, 624, 530, 115, 1269, 1587, 1390, 319然后,我们查询这些十进制数在单词表上对应的单词:考考你:十进制数 543 对应的是哪个单词?Dry、duck 还是 dumb?上图是从 Github 上截取的,因此这张单词表的序号是从 “1” 开始的。因此,每个序号都减去 “1” 之后才是每个单词真正对应的十进制数。因此,序号 544 的单词 dumb 实际上代表的是 “543”,也就是我们要找的那个单词。第二个数是 1398,对应的是单词表上序号为 1399 的单词。全部转化为单词后就是:dumb put else escape love merge cheap sparesight salad bench conduct giant second hundredslab old evoke drastic attack pact shoe punch child请注意,所有单词都是按字母排序的,首字母越靠前的单词代表的数字越小,首字母越靠后的单词代表的数字越大。当你明白这些单词的排序规律之后,可以明显看出这点。扩展私钥再来看下面这张图:扩展私钥是使用二进制私钥以及密语(passphrase)和衍生路径(derivation path),根据你我都没必要知道的数学公式计算得出的。请注意增加密语是如何彻底改变下游扩展私钥的。修改衍生路径也会改变下游数据。不要小看了你的软件钱包提供的默认衍生路径,请务必把它写下来保存好。我会另外写一篇文章来详细介绍衍生路径。扩展私钥最终用来生成一个钱包中的所有比特币地址,而且可以花费这些地址上的比特币。如上图所示,扩展私钥可以生成多个独立私钥(不是扩展私钥,而是普通的私钥),每个私钥会生成独立的公钥,每个公钥又会生成一个地址。扩展私钥还可以用来生成接下来要详细讨论的扩展公钥。我们无法根据单个独立私钥倒推出扩展私钥。这是我个人的理解,但是我不是密码学专家,因此不能确定,不过这么想很合理。但是,每个独立私钥有可能指向后一个独立私钥,当然这点我也不确定。因此,为确保万无一失,别向任何人泄漏你的任何一个私钥。可以确定的是,任何一个公钥都不会泄漏其对应的私钥。明白这一点很重要。我在 https://iancoleman.io/bip39/ 上生成了一个测试钱包。这个网站是练习生成虚拟钱包的好地方(千万别在联网的电脑上使用这种方式生成真的钱包)。扩展私钥如下所示:请注意,上图显示的是 “账户” 扩展私钥。我不知道这个网站为什么要这么标记。再来看这个扩展私钥的开头是 “x”。这意味着使用这个私钥将生成以 “1” 开头的传统地址。传统地址也叫作 P2PKH(pay to public key hash,支付到公钥哈希值)地址。使用以 “y” 开头的私钥(或公钥)会生成以 “3” 开头的地址。这些地址也叫作 P2SH(Pay to script hash,支付到脚本哈希值)地址。使用以 “z” 开头的私钥会生成原生的 segwit/Bech32 地址。这类地址以 “bc1q” 开头。最后,以大写字母 “X”、“Y” 或 “Z” 开头的私钥会生成多签钱包的地址。扩展公钥扩展公钥的用途不是很明显。如果你仔细看示意图的底部,你会发现使用扩展公钥通过钱包软件生成的比特币地址与使用扩展私钥生成的一样,而且地址顺序相同。使用扩展公钥和扩展私钥生成的钱包看起来完全一样。那么区别在哪儿呢?使用扩展私钥生成的钱包能够进行支付。使用公钥生成的钱包无法进行支付。这种钱包通常被称为 “观察” 钱包。你可以将这个钱包放在安全性低的计算机上,不用担心会丢失私钥,但可以用来查看你的钱包余额,或是复制地址发送给其他人。但你还是应该注意保护好自己的扩展公钥。一旦泄漏,其他人就可以通过访问你的扩展公钥来查询你的钱包余额和你的所有地址。从今往后,他们都可以查询你的钱包余额,就好像查询你的银行账单一样。保护好你的金融隐私,更要保护好你的金融密钥(比特币私钥)。注:扩展公钥如下图所示:如上图所示,公钥不是以 “xprv” 开头,而是以 “xpub” 开头,另外也可以 “ypub”、“zpub”、“Xpub”、 “Ypub” 和 “Zpub” 开头。(大写指的是多签私钥。)总结我希望这篇文章能帮助你理解比特币的公钥和私钥,进而让你更容易理解比特币的运作原理编辑于 2021-09-06 09:35进制二进制计算机原理​赞同​​添加评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录比特币/Bitcoin比特

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks-CSDN博客

>

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks-CSDN博客

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks

最新推荐文章于 2023-04-25 15:41:28 发布

Qiang__zi

最新推荐文章于 2023-04-25 15:41:28 发布

阅读量1.9k

收藏

点赞数

1

分类专栏:

Deep learning

Deep learning

专栏收录该内容

31 篇文章

0 订阅

订阅专栏

Kevin Lin  , Jiwen Lu  , Chu-Song Chen  , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.

摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数现有的二进制描述符设计与随机投影或线性哈希函数,我们开发一个深层神经网络以无监督的方式学习二进制描述符。我们对我们网络顶层学习的二进制代码执行三个标准:1)最小损耗量化,2)编码均匀分布和3)比特不相关。然后,我们用反向传播技术学习网络的参数。在三个不同的视觉分析任务包括图像匹配,图像检索和对象识别的实验结果清楚地证明了所提出的方法的有效性。

1.介绍

        特征描述符在计算机视觉中起着重要作用[28],已被广泛应用于众多的计算机视觉任务,如对象识别[10,26,42],图像分类[15,52]和全景拼接[5]。理想的特征描述符应该满足两个基本属性:(1)高质量描述,和(2)低计算花费。特征描述符需要捕获图像中的重要和独特的信息[26,28],并且对于各种图像变换是鲁棒的[26,27]。另一方面,高效的描述符使机器能够实时运行,这对于检索大型语料库中的图像[37]或者利用移动设备检测对象也很重要[43,50]。

        在过去十年中,已经广泛探索了高质量描述符,例如从卷积神经网络(CNN)[20,32]和代表性SIFT描述符[26]学习的丰富特征。这些描述符证明了卓越的辨别能力,弥合了低级像素和高级语义信息之间的差距[44]。然而,它们是高维实值描述符,并且通常需要高计算成本。

        为了降低计算复杂度,最近提出了几个轻量级二进制描述符,如BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符对排序和匹配非常有效。给定紧凑的二进制描述符,可以通过经由XOR按位操作计算二进制描述符之间的汉明距离来快速测量图像的相似性。由于这些早期的二进制描述符是通过简单的紧密度比较计算的,它们通常是不稳定的并且对尺度,旋转和噪声敏感。 一些先前的工作[9,40,48,53,54]通过在优化期间编码相似性关系来改进二进制描述符。然而,这些方法的成功主要归因于成对相似性标签。换句话说,他们的方法在训练数据不具有标签注释的情况下是不利的。

       在这项工作中,我们提出一个问题 - 我们可以从没有标签的数据学习二进制描述符吗? 从深度学习的最新进展启发,我们提出了一个有效的深度学习方法,称为DeepBit,以学习紧凑的二进制描述符。我们对学习的二进制描述符执行三个重要标准,并使用反向传播优化网络的参数。我们采用我们的方法在三个不同的视觉分析任务,包括图像匹配,图像检索和对象识别。实验结果清楚地表明,我们提出的方法优于最先进的技术。

2. Related Work

          二进制描述符:与二进制描述符有关的早期作品可以追溯到BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符建立在手工制作的采样模式和一组成对强度比较。虽然这些描述是有效的,但它们的性能是有限的,因为成对强度比较对尺度和几何变换敏感。 为了解决这些限制,已经提出了几种监督方法[3,9,38,39,41,50,53]来学习二进制描述符。  D-Brief [41]编码所需的相似关系,并学习项目矩阵来计算有区别的二进制特征。另一方面,局部差分二进制(LDB)[50,51]应用Adaboost来选择最佳采样对。 线性判别分析(LDA)也被应用于学习二进制描述符[14,38]。最近提出的BinBoost [39,40]使用增强算法学习一组投影矩阵,并在块匹配上实现最先进的性能。虽然这些方法已经取得了令人印象深刻的性能,他们的成功主要归因于配对相似的标签学习,并且不利于将二进制描述符转移到一个新的任务的情况。   

        无监督散列算法学习紧凑的二进制描述符,其距离与原始输入数据的相似性关系相关[2,14,34,46]。局部敏感哈希(LSH)[2]应用随机投影将原始数据映射到低维特征空间,然后执行二进制化。语义散列(SH)[34]构建了一个多层限制玻尔兹曼机(RBM)来学习用于文本和文档的紧凑二进制代码。频谱散列(SpeH)[46]通过频谱图分割生成高效的二进制代码。迭代量化(ITQ)[14]使用迭代优化策略找到具有最小二值化损失的投影。即使这些方法已经被证明是有效的,二进制码仍然不如真实值等价物那样准确。

        深度学习:深度学习在视觉分析中引起越来越多的关注,因为Krizhevsky et al。 [20]证明了深层CNN在1000级图像分类中的突出性能。他们的成功归功于训练一个深度的CNN,在上百万的图像中学习丰富的中级图像表示。Oquab et al [31]表明,可以用少量的训练数据实现将中级图像表示传送到新域。Chatfield等人 [7]表明,微调领域特定深特征产生比非微调特性更好的性能。通过预训练的深度CNN和深层转移学习,如对象检测[12],图像分割[25]和图像搜索[23],几个视觉分析任务已经大大改善。在最近的深度学习和二进制代码学习研究中,Xia et al [47]和Lai et al [21]采用深度CNN学习一组散列函数,但是它们需要配对相似性标签或三元组训练数据。SSHD [49]在深层CNN中构造散列函数作为潜在层,实现了最先进的图像检索性能,但是它们的方法属于监督学习。深度散列(DH)[24]建立三层分层神经网络学习区分投影矩阵,但他们的方法没有利用深层转移学习,因此使二进制代码效率较低。

         相比之下,所提出的DeepBit不仅将从ImageNet预训练的中级图像表示传送到目标域,而且还学习没有标签信息的紧凑但有区别的二进制描述符。我们将展示我们的方法在三个公共数据集上达到比最先进的描述符更好或可比的性能。       

3.Approach

         图2显示了我们提出的方法的学习框架。我们引入一个无人监督的深度学习方法,称为DeepBit,以学习紧凑但有区别的二进制描述符。不同于以前的工作[9,39-41],优化具有手工特征和配对相似信息的投影矩阵,DeepBit学习一组非线性投影函数来计算紧凑二进制描述符。我们对二进制描述符执行三个重要目标,并使用随机梯度下降技术优化所提出的网络的参数。注意,我们的方法不需要标记的训练数据,并且比监督方法更实用。在本节中,我们首先概述我们的方法,然后在以下部分描述提出的学习目标。

3.1    总体学习目标

            所提出的DeepBit通过将投影应用于输入图像来计算二进制描述符,然后对结果进行二值化:

                   b = 0.5 × (sign(F(x; W)) + 1),                                        (1)

其中x表示输入图像,b是向量形式的结果二进制描述符。sign(k) = 1 if k > 0

and −1 otherwise.F(x; W)是多个非线性投影函数的组合,可以写为:

                   F(x; W) = f k (· · · f 2 (f 1 (x; w 1 ); w 2 ) · · · ; w k ),       (2)

其中f i将数据x i和参数w i作为输入,并且产生投影结果x i + 1。

        所提出的方法旨在学习一组非线性投影参数W =(w 1,w 2,...,w k),其将输入图像x量化为紧凑二进制向量b,同时保留来自输入的信息。为了学习紧凑而有区别的二进制描述符,我们执行三个重要的标准来学习W.  首先,所学习的紧凑二进制描述符应保留最后一层的致动的局部数据结构。  在投影之后,量化损耗应尽可能小。第二,我们促进二进制描述符均匀分布,使得二进制字符串将传达更多的歧视消息。第三个是使描述符不变的旋转和噪声,因此二进制描述符将倾向于从输入图像捕获更多不相关的信息。

    

其中N是每个小批量的训练数据的数量,M是二进制码的位长,R表示图像旋转角。是从具有旋转角度θ的图像x n投影的二进制描述符,C(θ)是根据其旋转度惩罚训练数据的成本函数。此外,α,β和γ是平衡不同目标的三个参数。

          为了更好地理解所提出的目标,我们描述(3)的物理意义如下。 首先,L 1使二进制描述符和原始输入图像之间的量化损失最小化。然后,L 2鼓励二进制描述符被均匀分布以最大化二进制描述符的信息容量。  最后,L 3通过最小化描述参考图像的描述符和旋转的描述符之间的汉明距离来容忍旋转变换。我们详细阐述了每个提出的目标的细节如下。

3.2  学习辨别二进制描述符   

        所提出的DeepBit试图学习将输入图像映射成二进制串,同时保留原始输入的辨别信息的投影。保持二进制描述符信息的灵魂思想是通过重写(1)最小化量化损失如下:

                                        (b − 0.5) = F(x; W),                    (4)

量化损失越小,二进制描述符将保留原始数据信息越好。不同于以前的工作[13],通过迭代更新W和b两个交替的步骤解决这个问题,我们制定这个优化问题作为神经网络训练目标。从那时起,所提出的网络的目标变成学习使二进制描述符和原始输入图像之间的量化损失最小化的W。为此,我们通过反向传播和随机梯度下降(SGD)使用以下损耗函数来优化所提出的网络的参数W:

3.3 学习高效的二进制描述符

       为了增加二进制描述符的信息容量,我们最大化二进制字符串中每个bin的使用。考虑每个仓的方差,熵越高,二进制码表示的信息越多。 其中M表示二进制串的位长度。 对于每个bin,我们使用以下公式计算平均响应μm:

其中N是训练数据的数目,并且函数b(m)产生在第m个二进制位的二进制值。

3.4  学习旋转不变二进制描述符

        由于旋转不变性对于局部描述符是必要的,因此我们希望在优化期间增强该属性。我们通过最小化描述参考图像和旋转后的二进制描述符之间的差异来解决这个问题。考虑到图像之间的估计误差,当增加旋转度时,估计误差可能变大。因此,我们通过根据旋转度惩罚网络的训练损失来减轻估计误差。我们将所提出的目标定义为成本敏感的优化问题如下:

其中θ∈(-R,R)是旋转角。表示从输入x n与旋转θ映射的描述符。 C(θ)提供成本信息以反映不同旋转变换之间的二进制描述符的关系。在本文中,我们通过设置以减少估计误差:

其中C(θ)是高斯分布,在我们的实验中nμ= 0,σ= 1。

        我们使用开源Caffe实现我们的方法[18],算法1总结了所提出的DeepBit的详细过程。所提出的方法包括两个主要部分。第一个是网络初始化。 二是优化步骤。我们使用来自16层VGGNet [36]的预训练的权重来初始化网络,这是在ImageNet大规模数据集上训练的。然后,我们用新的完全连接的层替换VGGNet的分类层,并强制该层中的神经元学习二进制描述符。为此,我们使用随机梯度下降(SGD)方法和反向传播训练我们的网络,并使用提出的目标优化W(见(3))。其他设置如下所示。α = 1.0, β = 1.0, γ = 0.01.我们分别旋转图像10,5,0,-5,-10度。小批量大小为32,二进制描述符的位长度为256。图像归一化为256x256,然后中心裁剪为224×224作为网络输入。

4.实验结果

        我们对三个具有挑战性的数据集,棕色灰色斑块[4],CIFAR-10彩色图像[19]和牛津17类花[29]进行实验。我们提供广泛的评估二进制描述符,并演示其在各种任务,包括图像匹配,图像检索和图像分类的性能。我们从介绍数据集开始,然后介绍我们的实验结果以及与其他最新型的方法比较评价。

4.1 数据集

        Brown数据集[4]包括三个数据集,即Liberty,Notre Dame,Yosemite数据集。它们中的每一个包括超过400,000个灰度色块,导致总共1,200,000个色块。每个数据集被分成训练和测试集,分别具有20,000个训练对(10,000个匹配和10,000个非匹配对)和10,000个测试对(5,000个匹配和5,000个不匹配对)。

         CIFAR-10数据集[19]包含10个对象类别,每个类由6,000个图像组成,导致总共60,000个图像。数据集被分成训练和测试集,分别有50,000和10,000图像。

          牛津17类花数据集[29]包含17个类别,每个类由80个图像组成,导致总共 1 360个图像。      

4.3 图像检索实验结果

        为了评估所提出的二进制描述符的可辨别性,我们进一步测试我们的方法对图像检索的任务。我们在CIFAR-10数据集上比较DeepBit和几种无监督的哈希方法,包括LSH [2],ITQ [14],PCAH [45],语义哈希[SH] [34],光谱哈希[SpeH] [46] 17],KMH [16]和深度散列(DH)[24]。在这八个无监督方法中,深度散列(DH),像我们的方法,利用深层神经网络学习紧凑二进制代码。

        根据[24]中的设置,表2示出了基于前1000个返回图像相对于不同位长度的平均平均精度(mAP)的CIFAR-10检索结果。DeepBit分别相对于16,32和64个散列位将以前的最佳检索性能提高了3.26%,8.24%和10.77%mAP。根据结果,我们发现,哈希位越长,DeepBit实现的性能越好。此外,图6分别示出了具有16,32,64个散列位的不同无监督散列方法的精度/回忆曲线。可以看出,DeepBit 始终优于以前的无监督方法。 这表明所提出的方法有效地学习二进制描述符。值得注意的是,DH [24]采用三层分层神经网络来学习二进制散列码; 然而,DH不利用训练期间的深层转移学习。相比之下,提出的DeepBit不仅将从ImageNet预训练的中级图像表示传输到目标域,而且还学习具有期望标准的二进制描述符。实验表明,深层转移学习与提出的目标可以提高无人监管的哈希性能。

5. 总结

        在本文中,我们提出了一个无监督的深度学习框架来学习紧凑二进制描述符。我们采用三个标准来学习二进制代码和估计深度神经网络的参数以获得二进制描述符。我们的方法在学习期间不需要标记数据,并且与监督的二进制描述符相比对于现实世界的应用更加实用。在三个基准数据库上的实验包括灰度局部斑块,彩色图像和野生花卉表明我们的方法在大多数情况下比最先进的特征描述符更好的性能。

本文通过深度学习网络来学习 Compact Binary Descriptors ,  亮点是 Unsupervised,在优化函数里面加入了三个约束:  1) minimal loss quantization  2) evenly distributed codes  3) uncorrelated bits

优化函数:    L1, L2,L3 分别对应:  1)Discriminative Binary Descriptors  2) Efficient Binary Descriptors  3) Rotation Invariant Binary Descriptors

算法流程如下: 

4 Experimental Results  4.2. Results on Image Matching 

4.3. Results on Image Retrieval 

4.4. Results on Object Recognition 

Kevin Lin  , Jiwen Lu  , Chu-Song Chen  , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.

摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数现有的二进制描述符设计与随机投影或线性哈希函数,我们开发一个深层神经网络以无监督的方式学习二进制描述符。我们对我们网络顶层学习的二进制代码执行三个标准:1)最小损耗量化,2)编码均匀分布和3)比特不相关。然后,我们用反向传播技术学习网络的参数。在三个不同的视觉分析任务包括图像匹配,图像检索和对象识别的实验结果清楚地证明了所提出的方法的有效性。

1.介绍

        特征描述符在计算机视觉中起着重要作用[28],已被广泛应用于众多的计算机视觉任务,如对象识别[10,26,42],图像分类[15,52]和全景拼接[5]。理想的特征描述符应该满足两个基本属性:(1)高质量描述,和(2)低计算花费。特征描述符需要捕获图像中的重要和独特的信息[26,28],并且对于各种图像变换是鲁棒的[26,27]。另一方面,高效的描述符使机器能够实时运行,这对于检索大型语料库中的图像[37]或者利用移动设备检测对象也很重要[43,50]。

        在过去十年中,已经广泛探索了高质量描述符,例如从卷积神经网络(CNN)[20,32]和代表性SIFT描述符[26]学习的丰富特征。这些描述符证明了卓越的辨别能力,弥合了低级像素和高级语义信息之间的差距[44]。然而,它们是高维实值描述符,并且通常需要高计算成本。

        为了降低计算复杂度,最近提出了几个轻量级二进制描述符,如BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符对排序和匹配非常有效。给定紧凑的二进制描述符,可以通过经由XOR按位操作计算二进制描述符之间的汉明距离来快速测量图像的相似性。由于这些早期的二进制描述符是通过简单的紧密度比较计算的,它们通常是不稳定的并且对尺度,旋转和噪声敏感。 一些先前的工作[9,40,48,53,54]通过在优化期间编码相似性关系来改进二进制描述符。然而,这些方法的成功主要归因于成对相似性标签。换句话说,他们的方法在训练数据不具有标签注释的情况下是不利的。

       在这项工作中,我们提出一个问题 - 我们可以从没有标签的数据学习二进制描述符吗? 从深度学习的最新进展启发,我们提出了一个有效的深度学习方法,称为DeepBit,以学习紧凑的二进制描述符。我们对学习的二进制描述符执行三个重要标准,并使用反向传播优化网络的参数。我们采用我们的方法在三个不同的视觉分析任务,包括图像匹配,图像检索和对象识别。实验结果清楚地表明,我们提出的方法优于最先进的技术。

2. Related Work

          二进制描述符:与二进制描述符有关的早期作品可以追溯到BRIEF [6],ORB [33],BRISK [22]和FREAK [1]。这些二进制描述符建立在手工制作的采样模式和一组成对强度比较。虽然这些描述是有效的,但它们的性能是有限的,因为成对强度比较对尺度和几何变换敏感。 为了解决这些限制,已经提出了几种监督方法[3,9,38,39,41,50,53]来学习二进制描述符。  D-Brief [41]编码所需的相似关系,并学习项目矩阵来计算有区别的二进制特征。另一方面,局部差分二进制(LDB)[50,51]应用Adaboost来选择最佳采样对。 线性判别分析(LDA)也被应用于学习二进制描述符[14,38]。最近提出的BinBoost [39,40]使用增强算法学习一组投影矩阵,并在块匹配上实现最先进的性能。虽然这些方法已经取得了令人印象深刻的性能,他们的成功主要归因于配对相似的标签学习,并且不利于将二进制描述符转移到一个新的任务的情况。   

        无监督散列算法学习紧凑的二进制描述符,其距离与原始输入数据的相似性关系相关[2,14,34,46]。局部敏感哈希(LSH)[2]应用随机投影将原始数据映射到低维特征空间,然后执行二进制化。语义散列(SH)[34]构建了一个多层限制玻尔兹曼机(RBM)来学习用于文本和文档的紧凑二进制代码。频谱散列(SpeH)[46]通过频谱图分割生成高效的二进制代码。迭代量化(ITQ)[14]使用迭代优化策略找到具有最小二值化损失的投影。即使这些方法已经被证明是有效的,二进制码仍然不如真实值等价物那样准确。

        深度学习:深度学习在视觉分析中引起越来越多的关注,因为Krizhevsky et al。 [20]证明了深层CNN在1000级图像分类中的突出性能。他们的成功归功于训练一个深度的CNN,在上百万的图像中学习丰富的中级图像表示。Oquab et al [31]表明,可以用少量的训练数据实现将中级图像表示传送到新域。Chatfield等人 [7]表明,微调领域特定深特征产生比非微调特性更好的性能。通过预训练的深度CNN和深层转移学习,如对象检测[12],图像分割[25]和图像搜索[23],几个视觉分析任务已经大大改善。在最近的深度学习和二进制代码学习研究中,Xia et al [47]和Lai et al [21]采用深度CNN学习一组散列函数,但是它们需要配对相似性标签或三元组训练数据。SSHD [49]在深层CNN中构造散列函数作为潜在层,实现了最先进的图像检索性能,但是它们的方法属于监督学习。深度散列(DH)[24]建立三层分层神经网络学习区分投影矩阵,但他们的方法没有利用深层转移学习,因此使二进制代码效率较低。

         相比之下,所提出的DeepBit不仅将从ImageNet预训练的中级图像表示传送到目标域,而且还学习没有标签信息的紧凑但有区别的二进制描述符。我们将展示我们的方法在三个公共数据集上达到比最先进的描述符更好或可比的性能。       

3.Approach

         图2显示了我们提出的方法的学习框架。我们引入一个无人监督的深度学习方法,称为DeepBit,以学习紧凑但有区别的二进制描述符。不同于以前的工作[9,39-41],优化具有手工特征和配对相似信息的投影矩阵,DeepBit学习一组非线性投影函数来计算紧凑二进制描述符。我们对二进制描述符执行三个重要目标,并使用随机梯度下降技术优化所提出的网络的参数。注意,我们的方法不需要标记的训练数据,并且比监督方法更实用。在本节中,我们首先概述我们的方法,然后在以下部分描述提出的学习目标。

3.1    总体学习目标

            所提出的DeepBit通过将投影应用于输入图像来计算二进制描述符,然后对结果进行二值化:

                   b = 0.5 × (sign(F(x; W)) + 1),                                        (1)

其中x表示输入图像,b是向量形式的结果二进制描述符。sign(k) = 1 if k > 0

and −1 otherwise.F(x; W)是多个非线性投影函数的组合,可以写为:

                   F(x; W) = f k (· · · f 2 (f 1 (x; w 1 ); w 2 ) · · · ; w k ),       (2)

其中f i将数据x i和参数w i作为输入,并且产生投影结果x i + 1。

        所提出的方法旨在学习一组非线性投影参数W =(w 1,w 2,...,w k),其将输入图像x量化为紧凑二进制向量b,同时保留来自输入的信息。为了学习紧凑而有区别的二进制描述符,我们执行三个重要的标准来学习W.  首先,所学习的紧凑二进制描述符应保留最后一层的致动的局部数据结构。  在投影之后,量化损耗应尽可能小。第二,我们促进二进制描述符均匀分布,使得二进制字符串将传达更多的歧视消息。第三个是使描述符不变的旋转和噪声,因此二进制描述符将倾向于从输入图像捕获更多不相关的信息。

    

其中N是每个小批量的训练数据的数量,M是二进制码的位长,R表示图像旋转角。是从具有旋转角度θ的图像x n投影的二进制描述符,C(θ)是根据其旋转度惩罚训练数据的成本函数。此外,α,β和γ是平衡不同目标的三个参数。

          为了更好地理解所提出的目标,我们描述(3)的物理意义如下。 首先,L 1使二进制描述符和原始输入图像之间的量化损失最小化。然后,L 2鼓励二进制描述符被均匀分布以最大化二进制描述符的信息容量。  最后,L 3通过最小化描述参考图像的描述符和旋转的描述符之间的汉明距离来容忍旋转变换。我们详细阐述了每个提出的目标的细节如下。

3.2  学习辨别二进制描述符   

        所提出的DeepBit试图学习将输入图像映射成二进制串,同时保留原始输入的辨别信息的投影。保持二进制描述符信息的灵魂思想是通过重写(1)最小化量化损失如下:

                                        (b − 0.5) = F(x; W),                    (4)

量化损失越小,二进制描述符将保留原始数据信息越好。不同于以前的工作[13],通过迭代更新W和b两个交替的步骤解决这个问题,我们制定这个优化问题作为神经网络训练目标。从那时起,所提出的网络的目标变成学习使二进制描述符和原始输入图像之间的量化损失最小化的W。为此,我们通过反向传播和随机梯度下降(SGD)使用以下损耗函数来优化所提出的网络的参数W:

3.3 学习高效的二进制描述符

       为了增加二进制描述符的信息容量,我们最大化二进制字符串中每个bin的使用。考虑每个仓的方差,熵越高,二进制码表示的信息越多。 其中M表示二进制串的位长度。 对于每个bin,我们使用以下公式计算平均响应μm:

其中N是训练数据的数目,并且函数b(m)产生在第m个二进制位的二进制值。

3.4  学习旋转不变二进制描述符

        由于旋转不变性对于局部描述符是必要的,因此我们希望在优化期间增强该属性。我们通过最小化描述参考图像和旋转后的二进制描述符之间的差异来解决这个问题。考虑到图像之间的估计误差,当增加旋转度时,估计误差可能变大。因此,我们通过根据旋转度惩罚网络的训练损失来减轻估计误差。我们将所提出的目标定义为成本敏感的优化问题如下:

其中θ∈(-R,R)是旋转角。表示从输入x n与旋转θ映射的描述符。 C(θ)提供成本信息以反映不同旋转变换之间的二进制描述符的关系。在本文中,我们通过设置以减少估计误差:

其中C(θ)是高斯分布,在我们的实验中nμ= 0,σ= 1。

        我们使用开源Caffe实现我们的方法[18],算法1总结了所提出的DeepBit的详细过程。所提出的方法包括两个主要部分。第一个是网络初始化。 二是优化步骤。我们使用来自16层VGGNet [36]的预训练的权重来初始化网络,这是在ImageNet大规模数据集上训练的。然后,我们用新的完全连接的层替换VGGNet的分类层,并强制该层中的神经元学习二进制描述符。为此,我们使用随机梯度下降(SGD)方法和反向传播训练我们的网络,并使用提出的目标优化W(见(3))。其他设置如下所示。α = 1.0, β = 1.0, γ = 0.01.我们分别旋转图像10,5,0,-5,-10度。小批量大小为32,二进制描述符的位长度为256。图像归一化为256x256,然后中心裁剪为224×224作为网络输入。

4.实验结果

        我们对三个具有挑战性的数据集,棕色灰色斑块[4],CIFAR-10彩色图像[19]和牛津17类花[29]进行实验。我们提供广泛的评估二进制描述符,并演示其在各种任务,包括图像匹配,图像检索和图像分类的性能。我们从介绍数据集开始,然后介绍我们的实验结果以及与其他最新型的方法比较评价。

4.1 数据集

        Brown数据集[4]包括三个数据集,即Liberty,Notre Dame,Yosemite数据集。它们中的每一个包括超过400,000个灰度色块,导致总共1,200,000个色块。每个数据集被分成训练和测试集,分别具有20,000个训练对(10,000个匹配和10,000个非匹配对)和10,000个测试对(5,000个匹配和5,000个不匹配对)。

         CIFAR-10数据集[19]包含10个对象类别,每个类由6,000个图像组成,导致总共60,000个图像。数据集被分成训练和测试集,分别有50,000和10,000图像。

          牛津17类花数据集[29]包含17个类别,每个类由80个图像组成,导致总共 1 360个图像。      

4.3 图像检索实验结果

        为了评估所提出的二进制描述符的可辨别性,我们进一步测试我们的方法对图像检索的任务。我们在CIFAR-10数据集上比较DeepBit和几种无监督的哈希方法,包括LSH [2],ITQ [14],PCAH [45],语义哈希[SH] [34],光谱哈希[SpeH] [46] 17],KMH [16]和深度散列(DH)[24]。在这八个无监督方法中,深度散列(DH),像我们的方法,利用深层神经网络学习紧凑二进制代码。

        根据[24]中的设置,表2示出了基于前1000个返回图像相对于不同位长度的平均平均精度(mAP)的CIFAR-10检索结果。DeepBit分别相对于16,32和64个散列位将以前的最佳检索性能提高了3.26%,8.24%和10.77%mAP。根据结果,我们发现,哈希位越长,DeepBit实现的性能越好。此外,图6分别示出了具有16,32,64个散列位的不同无监督散列方法的精度/回忆曲线。可以看出,DeepBit 始终优于以前的无监督方法。 这表明所提出的方法有效地学习二进制描述符。值得注意的是,DH [24]采用三层分层神经网络来学习二进制散列码; 然而,DH不利用训练期间的深层转移学习。相比之下,提出的DeepBit不仅将从ImageNet预训练的中级图像表示传输到目标域,而且还学习具有期望标准的二进制描述符。实验表明,深层转移学习与提出的目标可以提高无人监管的哈希性能。

5. 总结

        在本文中,我们提出了一个无监督的深度学习框架来学习紧凑二进制描述符。我们采用三个标准来学习二进制代码和估计深度神经网络的参数以获得二进制描述符。我们的方法在学习期间不需要标记数据,并且与监督的二进制描述符相比对于现实世界的应用更加实用。在三个基准数据库上的实验包括灰度局部斑块,彩色图像和野生花卉表明我们的方法在大多数情况下比最先进的特征描述符更好的性能。

本文通过深度学习网络来学习 Compact Binary Descriptors ,  亮点是 Unsupervised,在优化函数里面加入了三个约束:  1) minimal loss quantization  2) evenly distributed codes  3) uncorrelated bits

优化函数:    L1, L2,L3 分别对应:  1)Discriminative Binary Descriptors  2) Efficient Binary Descriptors  3) Rotation Invariant Binary Descriptors

算法流程如下: 

4 Experimental Results  4.2. Results on Image Matching 

4.3. Results on Image Retrieval 

4.4. Results on Object Recognition 

优惠劵

Qiang__zi

关注

关注

1

点赞

0

收藏

觉得还不错?

一键收藏

知道了

0

评论

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks

Kevin Lin  , Jiwen Lu  , Chu-Song Chen  , Jie Zhou .IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2016.摘要:在本文中,我们提出一种称为DeepBit的新的无监督深度学习方法来学习紧凑二进制描述符,用于有效的视觉对象匹配。不同于大多数

复制链接

扫一扫

专栏目录

Learning to Hash with Binary DeepNeural Network

12-17

Learning to Hash with Binary Deep Neural Network

CVPR 2011 全部论文标题和摘要

3D Vision

09-21

1万+

CVPR 2011

Tian, Yuandong; Narasimhan, Srinivasa G.; , ■Rectification and 3D reconstruction of curved document images,■ Computer Vision and

参与评论

您还未登录,请先

登录

后发表或查看评论

论文阅读:CVPR2016 Paper list

热门推荐

一亩半分地

05-12

7万+

CVPR2016 accepted paper list

论文笔记 - Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks

qq_32417287的博客

05-06

1705

abstract

Introduction

Related Work

Binary Descriptors

Approach

Overall Learning Objectives

Learning Discriminative Binary Descriptors

Learning Efficient Binary Descriptors

Learning Rotation Invar...

GAN最全论文合集

gdtop的个人笔记

11-25

1万+

已经到2019年了,再回来补充补充,坏消息是GAN的热度已经没有那么高了,一是各种各样的应用坑都被踩完了几乎,二是GAN结构以及不容易训练的问题。

相关论文合集:

Kaiming He大神论文合集

[深度学习论文从0开始]

Transfer Learning[论文合集]

Object Detection[论文合集]

Reinforcement Learning[论文合集]

Unsu...

PCV库和vlfeat实现SIFT特征提取

zhuyuxin66的博客

04-25

483

sift原理介绍,PCV包和vlfeat实现sift描述子提取和匹配

learning_curve(学习曲线)

小麦粒的Python

10-11

2万+

查看模型的学习效果;

通过学习曲线可以清晰的看出模型对数据的过拟合和欠拟合;

学习曲线:随着训练样本的逐渐增多,算法训练出的模型的表现能力;

表现能力:也就是模型的预测准确率,使用均方误差表示;学习率上体现了模型相对于训练集和测试集两类数据的均方误差。

学习曲线( learning curve)是什么?如何绘制学习( learning curve)曲线?学习曲线( learning curve)详解及实践

data+scenario+science+insight

05-04

8835

学习曲线( learning curve)是什么?如何绘制学习( learning curve)曲线?学习曲线( learning curve)详解及实践

学习曲线如何帮助你从数据的角度来查看方差和偏差的关系?

学习曲线的横轴是训练集数据的个数,纵轴是训练数据和交叉验证的评分结果(可以是误差、F1、或者AUC等),其实就是逐步增加样本个数来查看交叉验证的训练集的评分和测试集的评分。

基于交叉验证的训练集的评分和测试集的评分来判断、在样本量多少的时候,模型收敛了或者达到了稳定...

常见特征描述符介绍

zqshust的博客

05-30

4344

系列文章目录

Descriptor描述符提供特征点Keypoint周围的独特信息。本章将介绍基于梯度的描述符和二进制描述符的差异,以及计算速度的优势。

基于梯度的描述符的的代表:Scale Invariant Feature Transform (SIFT);

二进制描述符代表:Binary Robust Invariant Scalable Keypoints (BRISK)

提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录系列文章目录HOG描述符Scale-Invaria

machine learning Neural Networks for Binary Classification

10-09

吴恩达机器学习 Neural Networks for Binary Classification Jupyter note版本编程作业 机器学习与数据挖掘

Deep Hashing for Compact Binary Codes Learning

10-21

简单的介绍了DH(深度哈希),文章是2015年 CVPR 的文章,虽然论文中实验结果并不是很好,但是文章的想法还是很有创新性的:采用深度神经网络。

Learning Channel-wise Interactions for Binary Convolutional Neural Networks.pdf

04-07

一篇论文,提出了BI-CNN模型,能够使二值化神经网络大幅提高精度,在CIFAR-10和IMAGENET数据集上表现良好。

Deep Learning with Python Francois Chollet Keras

04-30

Deep Learning with Python introduces the field of deep learning using the Python language and the powerful Keras library. Written by Keras creator and Google AI researcher François Chollet, this book...

springboot学生毕业离校系统PPT

最新发布

03-06

一年一度的毕业季的到来,方方面面都普及使得学生毕业离校系统的开发成为必需。学生毕业离校系统主要是借助计算机,通过对学生、教师、离校信息、费用结算、论文审核等信息进行管理。为减少管理员的工作,同时也方便广大学生对个人所需毕业离校的及时查询以及管理。

学生毕业离校系统的开发过程中,采用B / S架构,主要使用Java技术进行开发,结合最新流行的springboot框架。中间件服务器是Tomcat服务器,使用Mysql数据库和Eclipse开发环境。该学生毕业离校系统包括管理员、学生和教师。其主要功能包括管理员:首页、个人中心、学生管理、教师管理、离校信息管理、费用结算管理、论文审核管理、管理员管理、留言板管理、系统管理等,前台首页;首页、离校信息、网站公告、留言反馈、个人中心、后台管理等,学生:首页、个人中心、费用结算管理、论文审核管理、我的收藏管理、等,教师:首页、个人中心、学生管理、离校信息管理、费用结算管理、论文审核管理等功能。

本论文对学生毕业离校系统的发展背景进行详细的介绍,并且对系统开发技术进行介绍,然后对系统进行需求分析,对学生毕业离校系统业务信息、系统结构以及数据都进行详细

Java毕设-基于SpringBoot+Vue的宠物商城网站设计与实现(附源码,数据库,教程).zip

03-06

Java 毕业设计,Java 课程设计,基于 SpringBoot 开发的,含有代码注释,新手也可看懂。毕业设计、期末大作业、课程设计、高分必看,下载下来,简单部署,就可以使用。

包含:项目源码、数据库脚本、软件工具等,前后端代码都在里面。

该系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值。

项目都经过严格调试,确保可以运行!

1. 技术组成

前端:html、javascript、Vue

后台框架:SpringBoot

开发环境:idea

数据库:MySql(建议用 5.7 版本,8.0 有时候会有坑)

数据库工具:navicat

部署环境:Tomcat(建议用 7.x 或者 8.x 版本), maven

2. 部署

如果部署有疑问的话,可以找我咨询

后台路径地址:localhost:8080/项目名称/admin/dist/index.html

前台路径地址:localhost:8080/项目名称/front/index.html (无前台不需要输入)

财富管理系统,全球前10强生产商排名及市场份额调研数据.pdf

03-06

财富管理系统,全球前10强生产商排名及市场份额调研数据

springboot139基于SpringBoot华强北商城二手手机管理系统-毕业源码案例设计

03-06

进入21世纪网络和计算机得到了飞速发展,并和生活进行了紧密的结合。目前,网络的运行速度以达到了千兆,覆盖范围更是深入到生活中的角角落落。这就促使二手交易网站的发展。二手交易网站可以实现远程购物,远程选择喜欢的商品和随时追踪订单的状态。二手交易网站给人们带来前所未有的体验,满足了新时代人们的购物需求,所以网上二手交易模式得到大力发展。

本系统为基于Springboot的华强北商城二手手机管理系统,是采用计算机和网络技术进行开发的在线交易平台,可以实现商品的展示、购买、评价以及销售等。本系统采用Java语言,数据库为Mysql,运行环境为Idea。使用角色分为注册用户、游客、管理员、商家,本系统的功能包括新闻管理、商品信息展示以及管理、注册用户管理、订单管理、商品评价同时还可以管理购物车。其中,游客负责浏览信息,注册用户可以购买商品、评价商品、管理订单,商家可以销售商品管理订单,管理员可以管理所有功能以及个人信息。本系统实现了商品的在线销售与购买,方便了购买者和销售者双方的利益,提高销量和购买效率,更符合现代人生活。

关键词:购物车,用户注册,商品信息管理,订单管理,Java语言

c语言文件读写操作代码

03-06

c语言文件读写操作代码

This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations: AVX AVX这个错误出现的原因

05-24

这个错误出现的原因是你的TensorFlow二进制文件是使用oneAPI Deep Neural Network Library(oneDNN)进行优化的,以在性能关键操作中使用AVX指令集。然而,你的CPU可能不支持AVX指令集。AVX是一种高级指令集,需要支持它的CPU才能够运行使用了AVX指令的程序。如果你的CPU不支持AVX指令,你需要使用一个没有使用oneDNN进行优化的TensorFlow二进制文件或者更新你的CPU以支持AVX指令。

“相关推荐”对你有帮助么?

非常没帮助

没帮助

一般

有帮助

非常有帮助

提交

Qiang__zi

CSDN认证博客专家

CSDN认证企业博客

码龄10年

暂无认证

96

原创

7万+

周排名

205万+

总排名

26万+

访问

等级

3297

积分

34

粉丝

80

获赞

16

评论

387

收藏

私信

关注

热门文章

机器学习样本特征之间的相似性度量总结

33198

常用latex宏包

19693

Elsevier上发表论文的若干要求

19129

new生成二维数组

17026

斐波那契数列数列的三种时间复杂度的实现方法

12764

分类专栏

pytorch

web

1篇

FFMPEG

JAVA

1篇

数据分析

1篇

Neural Networks

3篇

C++

24篇

Deep learning

31篇

STL_ACM

30篇

Fig

6篇

algorithm

13篇

OpenCV

4篇

software install

6篇

Ubuntu

application

3篇

MAC_基础知识

11篇

杂文

3篇

NLP

1篇

python

5篇

最新评论

常见的几种优化方法

努力征服数学的矩形鱼:

图为什么都看不了啊

window10下labelme的安装与使用(图像分割中数据标注)

VVViolet*:

请问在哪找安装目录呢

常见的几种优化方法

脑壳二:

总结的到位,我的主页有关于代码matlab

机器学习样本特征之间的相似性度量总结

syrnice:

感谢!!!

您愿意向朋友推荐“博客详情页”吗?

强烈不推荐

不推荐

一般般

推荐

强烈推荐

提交

最新文章

win10 Apach+mod_WSGI+Python3.6部署Flask服务

VS Code使用虚拟环境

java连接SQL2008R2

2021年1篇

2020年3篇

2019年13篇

2018年1篇

2017年48篇

2016年66篇

目录

目录

分类专栏

pytorch

web

1篇

FFMPEG

JAVA

1篇

数据分析

1篇

Neural Networks

3篇

C++

24篇

Deep learning

31篇

STL_ACM

30篇

Fig

6篇

algorithm

13篇

OpenCV

4篇

software install

6篇

Ubuntu

application

3篇

MAC_基础知识

11篇

杂文

3篇

NLP

1篇

python

5篇

目录

评论

被折叠的  条评论

为什么被折叠?

到【灌水乐园】发言

查看更多评论

添加红包

祝福语

请填写红包祝福语或标题

红包数量

红包个数最小为10个

红包总金额

红包金额最低5元

余额支付

当前余额3.43元

前往充值 >

需支付:10.00元

取消

确定

下一步

知道了

成就一亿技术人!

领取后你会自动成为博主和红包主的粉丝

规则

hope_wisdom 发出的红包

实付元

使用余额支付

点击重新获取

扫码支付

钱包余额

0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

Deep Bit lab

Deep Bit lab

Toggle navigation

Deep Bit lab

Home

Publications

Awards

Review

Group

Dr. Zhen Li

Assistant Professor

School of Science and Engineering, CUHKSZ.

Future Network of Intelligence Institute,

CUHKSZ

Shenzhen Research Institute of Big Data

Deep Learning based Brain-like

Interdisciplinary Transfer technology Lab

(Deep Bit Lab)

深度比特实验室

Our Deep Bit Lab focuses on transfering appealing AI technologies for interdisciplinary researches

and brain-like computing.

Practical applications of great significances are our motivations.

"Passions, interests, believes, creatives and diligences" is the slogan for our

Deep Bit Lab.

Interests

Point Cloud Analysis

Protein Structure Prediction

3D Understanding by Multimodal-Data

Medical Big Data

Open Vocabulary Analysis

Interdisciplinary Research

Education

Visiting Scholar, 2018, 2016

TTIC, University of Chicago

PhD. in Hong Kong, 2018

University of Hong Kong

M.A. in China, 2014

Sun Yat-sen University

B.A. in China, 2011

Sun Yat-sen University

Open Opportunities

We have opening positions for Ph.D., M.phil. (Limited quotas for Ph.D.

application, top conferences/journals are required.), Msc and visiting students, which are waiting

for self-motivated talents.

Please send me (lizhen@cuhk.edu.cn) your resume if you are interested in.

news

One paper accepted by TVCG 2023.

One paper accepted by J-BHI 2023.

One paper accepted by TPAMI 2023.

Four papers accepted by ICCV 2023. One as Oral.

One paper accepted by ACM-MM 2023.

Three papers early accepted by MICCAI 2023.

1st Place for HOI4D segmentation on CVPR2023.

Two papers accepted by CVPR 2023.

One papers accepted by TNNLS.

Two papers accepted by AAAI 2023.

Publications

Papers & Publications

*Equal First Author, #Corresponding Author

Chaoda Zheng, Xu Yan*, Haiming Zhang, Boyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#.

An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.

T-PAMI 2023

PDF

CODE

Yuncheng Jiang*, Zixun Zhang*, Yiwen Hu*, Guanbin Li, Xiang Wan, Song Wu, Shuguang Cui Fellow, IEEE, Silin Huang#, Zhen Li#.

ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic Polyp Detection.

J-BHI 2023

Ziyi Zhang, Weikai Chen, Chaowei Fang, Zhen Li, Lechao Cheng, Liang Lin, Guanbin Li.

RankMatch: Fostering Confidence and Consistency in Learning with Noisy Labels.

ICCV 2023

Yiran Qin, Chaoqun Wang, Zijian Kang, Ningning Ma, Zhen Li, Ruimao Zhang.

SupFusion: Supervised LiDAR-Camera Fusion for 3D Object Detection.

ICCV 2023

Yueru Luo, Chaoda Zheng, Xu Yan, Kun Tang, Chao Zheng, Shuguang Cui, Zhen Li#.

LATR: 3D Lane Detection from Monocular Images with Transformer, Oral Presentation! (5% in submission).

ICCV 2023

PDF

CODE

Hong Yan, Yang Liu, Yushen Wei, Zhen Li, Guanbin Li, Liang Lin.

SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence Pre-training.

ICCV 2023

PDF

Rui Sun, Fengwei Zhou, Zhenhua Dong, Chuanlong Xie, Lanqing Hong, Jiawei Li, Rui Zhang, Zhenguo Li, Zhen Li#.

Fair-CDA: Continuous and Directional Augmentation for Group Fairness.

AAAI 2023

PDF

Yinghong Liao*, Wending Zhou*, Xu Yan, Shuguang Cui, Yizhou Yu, Zhen Li#

Geometry-Aware Network for Domain Adaptive Semantic Segmentation.

AAAI 2023

PDF

Weibing Zhao, Haiming Zhang, Chaoda Zheng, Xu Yan, Shuguang Cui, Zhen Li#.

CPU: Codebook Lookup Transformer with Knowledge Distillation for Point Cloud Upsampling.

ACM-MM 2023

PDF

Jun Wei, Yiwen Hu, Shuguang Cui, S. Kevin Zhou, Zhen Li#.

WeakPolyp: You Only Look Bounding Box for Polyp Segmentation.

MICCAI 2023 (Early Accept)

PDF

Yuncheng Jiang, Zixun Zhang, Ruimao Zhang, Guanbin Li, Shuguang Cui, Zhen Li#.

YONA: You Only Need One Adjacent Reference-frame for Accurate and Fast Video Polyp Detection.

MICCAI 2023 (Early Accept)

PDF

Yuhao Du, Yuncheng Jiang, Shuangyi Tan, Xusheng Wu, Dou Qi, Zhen Li#, Guanbin Li#, Xiang Wan.

ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic Diffusion Models.

MICCAI 2023 (Early Accept)

PDF

Xu Yan*, Heshen Zhan*, Chaoda Zheng, Jiantao Gao, Ruimao Zhang, Shuguang Cui, Zhen Li#.

Let Images Give You More: Point Cloud Cross-Modal Training for Shape Analysis.

NeurIPS 2022

PDF

Ziyi Zhang, Weikai Chen, Hui Cheng, Zhen Li, Siyuan Li, Liang Lin, Guanbin Li.

Divide and Contrast: Source-free Domain Adaptation via Adaptive Contrastive Learning.

NeurIPS 2022

PDF

Yuanfeng Ji, Haotian Bai, Chongjian GE, Jie Yang, Ye Zhu, Ruimao Zhang#, Zhen Li#, Lingyan Zhanng, Wanling Ma, Xiang Wan#, Ping Luo#.

AMOS: A Large-Scale Abdominal Multi-Organ Benchmark for Versatile Medical Image Segmentation

NeurIPS 2022 Track Datasets and Benchmarks

PDF

Jun Wei*, Yiwen Hu*, Guanbin Li, Shuguang Cui, S.Kevin Zhou, Zhen Li#

.

BoxPolyp: Boost Generalized Polyp Segmentation using Extra Coarse Bounding Box Annotations

.

MICCAI 2022

PDF

Qin Wang, Jiayang Chen, Yuzhe Zhou, Liangzheng Zheng, Zhen Li#, Sheng

Wang, Shuguang Cui.

.

Contact-Distil: Boosting Low Homologous Protein Contact Map Prediction by Self-Supervised Distillation.

AAAI 2022

PDF

Guangyi Liu*, Yinghong Liao*, Fuyu Wang, Bin Zhang, Lu Zhang, Xiaodan Liang, Xiang Wan, Shaolin Li, Zhen Li#, Shuixing Zhang and Shuguang Cui.

Medical-VLBERT: Medical Visual Language BERT for COVID-19 CT Report Generation with Alternate Learning.

TNNLS

Dataset

PDF

Qin Wang*, Jun Wei*, Boyuan Wang, Zhen Li#, Sheng Wang, Shuguang Cui.

Adaptive Residue-wise Profile Fusion for Low Homologous Protein Secondary Structure Prediction Using

External Knowledge.

IJCAI 2021

PDF

Weibing Zhao*, Xu Yan*, Jiantao Gao, Ruimao Zhang, Jiayan Zhang, Zhen

Li#, Song Wu, Shuguang Cui.

PointLIE: Locally Invertible Embedding for Point Cloud Sampling and Recovery.

IJCAI 2021

CODE

PDF

Chaoda Zheng*, Xu Yan*, Jiantao Gao, Weibing Zhao, Wei ZhangZhen Li#,

Shuguang Cui.

Box-Aware Feature Enhancement for Single Object Tracking on Point Clouds.

ICCV

Github

PDF

Jun Wei, Yiwen Hu, Ruimao Zhang, Zhen Li#, S.Kevin Zhou, Shuguang Cui.

Shallow Attention Network for Polyp Segmentation.

MICCAI2021

Qin Wang, Hui Che, Weizhen Ding, Li Xiang, Guanbin Li, Zhen Li#,

Shuguang Cui.

Colorectal Polyp Classification from White-light Colonoscopy Images via Domain Alignment.

MICCAI2021

Yuanfeng Ji, Ruimao Zhang, Huijie Wang, Zhen Li, Lingyun Wu, Shaoting Zhang, Ping Luo#.

Multi-Compound Transformer for Accurate Biomedical Image Segmentation.

MICCAI2021

Github

Zhihao Yuan, Xu Yan, Yinghong Liao, Ruimao Zhang, Zhen Li#, Shuguang

Cui.

InstanceRefer: Cooperative Holistic Understanding for Visual Grounding on Point Clouds through Instance

Multi-level Contextual Referring.

ICCV

Github

Yufei Han, Qian Zhuang, Bo Sun, Wenping Lv, Sheng Wang, Qingjie Xiao, Bin Pang, Youli Zhou, Fuxing Wang,

Pengliang Chi, Qisheng Wang, Zhen Li, Lizhe Zhu, Fuping Li, Dong Deng,

Ying-Chih Chiang, Zhenfei Li & Ruobing Ren.

Crystal structure of steroid reductase SRD5A reveals conserved steroid reduction mechanism.

Nature Communication

Nature

Jun Wei, Qin Wang, Zhen Li#, Sheng Wang, S.Kevin Zhou, Shuguang Cui.

Shallow Feature Matters for Weakly Supervised Object Localization.

CVPR 2021

CVPR

Qin Wang, Boyuan Wang, Zhenlei Xu, Jiaxiang Wu, Peilin Zhao, Zhen Li#,

Sheng Wang, Junzhou Huang, Shuguang Cui.

PSSM-Distil: Protein Secondary Structure Prediction (PSSP) on Low-Quality PSSM by Knowledge Distillation

with Contrastive Learning.

AAAI 2021

Github

Xu Yan, Jiantao Gao, Jie Li, Ruimao Zhang, Zhen Li#, Rui Huang,

Shuguang Cui.

Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning Contextual Shape Priors from Scene

Completion.

AAAI 2021

Github

PDF

Xu Yan, Weibing Zhao, Kun Yuan, Ruimao Zhang, Zhen Li#, Shuguang Cui.

Towards Content-independent Multi-Reference Super-Resolution: Adaptive Pattern Matching and Feature

Aggregation.

ECCV 2020

ECCV2020

Supplementary

Minqing Zhang, Jiantao Gao, Zhen Lyu, Weibing Zhao, Qin Wang, Weizhen Ding, Sheng Wang, Zhen Li#, Shuguang Cui.

Characterizing Label Errors: Confident Learning for Noisy-labeled Image Segmentation.

MICCAI 2020

Github

Springer Link

Xu Yan, Chaoda Zheng, Zhen Li#, Sheng Wang, Shuguang Cui.

PointASNL: Robust Point Clouds Processing using Nonlocal Neural Networks with Adaptive Sampling.

CVPR 2020

arxiv

Github

Ruimao Zhang, Zhanglin Peng, Lingyun Wu, Zhen Li, Ping Luo

.

Exemplar Normalization for Learning Deep Representation

.

CVPR 2020

CVPR

Pengxiang Yan, Guanbin Li, Yuan Xie, Zhen Li, Chuan Wang, Tianshui

Chen, Liang Lin

.

Semi-Supervised Video Salient Object Detection Using Pseudo-Labels

.

ICCV 2019

arxiv

Github

Sheng Wang*, Zhen Li*, Yizhou Yu, Xin Gao

,

WaveNano: a signal-level nanopore base-caller via simultaneous prediction of nucleotide labels

and move labels through bi-directional WaveNets.

.

Quantitative Biology, 2018.

Springer link

Sheng Wang, Siqi Sun, Zhen Li, Renyu Zhang and Jinbo Xu

.

Accurate De Novo Prediction of Protein Contact Map by Ultra-Deep Learning Model

.

PLOS Computational Biology, 2017. (official 1st for CASP12, Highly cited paper of web of science,

PLOS Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.).

arxiv

link to CASP12

Xiaoguang Han*, Zhen Li*, Haibin Huang, Evangelos Kalogerakis, and

Yizhou Yu

.

High-Resolution Shape Completion Using Deep Neural Networks for Global Structure and Local Geometry

Inference

.

ICCV 2017(spotlight, 2.61%)

arxiv

Sheng Wang*, Zhen Li*, Yizhou Yu and Jinbo Xu

.

Folding membrane proteins by deep transfer learning

,

Cell Systems,2017 5(3):202-211.(Cover Letter Paper)

cell page

Zhen Li*, Sheng Wang*, Yizhou Yu and Jinbo Xu,

.

Predicting membrane protein contacts from non-membrane proteins by deep transfer learning

.

The 21st International Conference on Research in Computational Molecular Biology (RECOMB) 2017

arxiv

Zhen Li, Yizhou Yu

,

Protein Secondary Structure Prediction Using Cascaded Convolutional and Recurrent Neural Networks

,

Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence (IJCAI), New York

IJCAI page

Paper repo on Github

Zhen Li, Yukang Gan, Xiaodan Liang, Yizhou Yu, Hui Cheng, and Liang Lin

.

LSTM-CF: Unifying Context Modeling and Fusion with LSTMs for RGB-D Scene Labeling

.

European Conference on Computer Vision (ECCV), Amsterdam

arxiv

Paper repo on Github

Highlighted

Highlighted Projects

An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.

Chaoda Zheng, Xu Yan*, Haiming Zhang, Boyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#.

T-PAMI 2023

CODE

Paper

An Effective Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds.

Yueru Luo, Chaoda Zheng, Xu Yan, Kun Tang, Chao Zheng, Shuguang Cui, Zhen Li#.

ICCV 2023 (Oral)

CODE

Paper

CPU: Codebook Lookup Transformer with Knowledge Distillation for Point Cloud Upsampling.

Weibing Zhao, Haiming Zhang, Chaoda Zheng, Xu Yan, Shuguang Cui, Zhen Li#.

ACM-MM 2023.

Paper

ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic Polyp Detection.

Yuncheng Jiang*, Zixun Zhang*, Yiwen Hu*, Guanbin Li, Xiang Wan, Song Wu, Shuguang Cui Fellow, IEEE, Silin Huang#, Zhen Li#.

J-BHI 2023

Paper

Let Images Give You More: Point Cloud Cross-Modal Training for Shape Analysis

Xu Yan*, Heshen Zhan*, Chaoda Zheng, Jiantao Gao, Ruimao Zhang, Shuguang Cui, Zhen Li#

NeurIPS 2022

Code

Paper

BoxPolyp: Boost Generalized Polyp Segmentation using Extra Coarse Bounding Box Annotations

Jun Wei*, Yiwen Hu*, Guanbin Li, Shuguang Cui, S.Kevin Zhou, Zhen Li#

MICCAI 2022

Paper

2DPASS: 2D Priors Assisted Semantic Segmentation on LiDAR Point Clouds

Xu Yan, Jiantao Gao, Chaoda Zheng, Chao Zheng, Ruimao Zhang, Shuguang Cui, Zhen Li#

ECCV 2022 (The first-place for SemanticKITTI segmentation.)

Paper

Code

Weakly Supervised Object Localization through Inter-class Feature Similarity and Intra-class Appearance

Consistency

Jun Wei, Sheng Wang, S.Kevin Zhou, Shuguang Cui, Zhen Li#

ECCV 2022

Paper

PointSite: A Point Cloud Segmentation Tool for Identification of Protein Ligand Binding Atoms

Xu Yan, Yingfeng Lu, Zhen Li#, Qing Wei, Xin Gao, Sheng Wang, Song Wu,

and Shuguang Cui

JCIM

Paper

Prior knowledge facilitates low homologous protein secondary structure prediction with DSM distillation

Qin Wang, Jun Wei, Yuzhe Zhou, Mingzhi Lin, Ruobing Ren, Sheng Wang, Shuguang Cui, Zhen Li#

Bioinformatics

Paper

X-Trans2Cap: Cross-Modal Knowledge Transfer using Transformer for 3D Dense Captioning

Zhihao Yuan*, Xu Yan*, Yinghong Liao, Yao Guo, Guanbin Li, Zhen Li#,

Shuguang Cui

CVPR 2022

Code

Paper

Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single Object Tracking in Point Clouds

Chaoda Zheng, Xu Yan, Haiming Zhang, Baoyuan Wang, Shenghui Cheng, Shuguang Cui, Zhen Li#

CVPR 2022

Code

Paper

Project Page

Medical-VLBERT: Medical Visual Language BERT for COVID-19 CT Report Generation with Alternate Learning

Guangyi Liu, Yinghong Liao, Fuyu Wang, Bin Zhang, Lu Zhang, Xiaodan Liang, Xiang Wan, Shaolin Li, Zhen Li#, Shuixing Zhang and Shuguang Cui

TNNLS

Dataset

Shallow Attention Network for Polyp Segmentation

Qin Wang, Hui Che, Weizhen Ding, Li Xiang, Guanbin Li, Zhen Li#,

Shuguang Cui

MICCAI2021

Crystal structure of steroid reductase SRD5A reveals conserved steroid reduction mechanism

Yufei Han, Qian Zhuang, Bo Sun, Wenping Lv, Sheng Wang, Qingjie Xiao, Bin Pang, Youli Zhou, Fuxing Wang,

Pengliang Chi, Qisheng Wang, Zhen Li, Lizhe Zhu, Fuping Li, Dong Deng,

Ying-Chih Chiang, Zhenfei Li & Ruobing Ren

Nature Communication

Link

Shallow Feature Matters for Weakly Supervised Object Localization

Jun Wei, Qin Wang, Zhen Li#, Sheng Wang, S.Kevin Zhou, Shuguang Cui

CVPR 2021

PDF

Github

Box-Aware Feature Enhancement for Single Object Tracking on Point Clouds

Chaoda Zheng, Xu Yan, Jiantao Gao, Weibing Zhao, Wei ZhangZhen Li#,

Shuguang Cui

ICCV 2021

PDF

Github

InstanceRefer: Cooperative Holistic Understanding for Visual Grounding on Point Clouds through Instance

Multi-level Contextual Referring

Zhihao Yuan, Xu Yan, Yinghong Liao, Ruimao Zhang, Zhen Li#, Shuguang

Cui

ICCV 2021

PDF

Github

PSSM-Distil: Protein Secondary Structure Prediction (PSSP) on Low-Quality PSSM by Knowledge Distillation

with Contrastive Learning

Qin Wang, Boyuan Wang, Zhenlei Xu, Jiaxiang Wu, Peilin Zhao, Zhen Li#,

Sheng Wang, Junzhou Huang, Shuguang Cui

AAAI 2021

PDF

Github

Sparse Single Sweep LiDAR Point Cloud Segmentation via Learning Contextual Shape Priors from Scene

Completion

Xu Yan, Jiantao Gao, Jie Li, Ruimao Zhang, Zhen Li#, Rui Huang,

Shuguang Cui

AAAI 2021

PDF

Github

Towards Content-independent Multi-Reference Super-Resolution: Adaptive Pattern Matching and Feature

Aggregation

Xu Yan, Weibing Zhao, Kun Yuan, Ruimao Zhang, Zhen Li#, Shuguang Cui

ECCV 2020

PDF

Characterizing Label Errors: Confident Learning for Noisy-labeled Image Segmentation.

Minqing Zhang, Jiantao Gao, Zhen Lyu, Weibing Zhao, Qin Wang, Weizhen Ding, Sheng Wang, Zhen Li#, Shuguang Cui.

MICCAI 2020

PDF

Github

PointASNL: Robust Point Clouds Processing using Nonlocal Neural Networks with Adaptive Sampling

Xu Yan, Chaoda Zheng, Zhen Li#, Sheng Wang, Shuguang Cui

CVPR 2020

PDF

Paper repo on Github

MetaSelection: Metaheuristic Sub-Structure Selection for Neural Network Pruning Using Evolutionary

Algorithm

Zixun Zhang, Zhen Li#, Lin Lin, Na Lei, Guanbin Li, ShuguangCui

ECAI 2020

High-Resolution Shape Completion Using Deep Neural Networks for Global Structure and Local Geometry

Inference

Xiaoguang Han* ; Zhen Li* ; Haibin Huang ; Evangelos Kalogerakis ; Yizhou Yu

International Conference on Computer Vision (ICCV), Venice, October 2017.

(ICCV spotlight, 2.61%)

PDF

Folding Membrane Proteins by Deep Transfer Learning

Sheng Wang*, Zhen Li*, Yizhou Yu and Jinbo Xu

Cell Systems,2017 5(3):202-211.(Cover Letter Paper)

Cell Seystms Page

Accurate De Novo Prediction of Protein Contact Map by Ultra-Deep Learning Model.

Sheng Wang, Siqi Sun, Zhen Li, Renyu Zhang, Jinbo Xu

PLOS Computational Biology, 2017 (official 1st for CASP12, Highly cited paper of web of science, PLOS

Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.)

PLOS page

link to CASP12

LSTM-CF: Unifying Context Modeling and Fusion with LSTMs for RGB-D Scene Labeling

Zhen Li, Yukang Gan, Xiaodan Liang, Yizhou Yu, Hui Cheng, and Liang Lin

ECCV 2016

PDF

Paper repo on Github

Protein Secondary Structure Prediction Using Cascaded Convolutional and Recurrent Neural Networks

Zhen Li, Yizhou Yu

Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence (IJCAI), New

York

PDF

Paper repo on Github

Awards

Awards & Honors

*

The 1-st for 4D semantic segmentation of HOI4D@CVPR2023

The 3-rd for 4D action segmentation tracks of HOI4D@CVPR2023

The 1-st in the public leaderboard of SemanticKITTI in both single and multiple scan(s) semantic segmentation tasks!

Candidate for the 7th China Association for Science and Technology Young Talent Support Project

CCF-Tencent Rhino bird 2019 Award.

PLOS Computational Biology Research Prize 2018 in the category Breakthrough Advance/Innovation.

The first-place for SemanticKITTI segmentation

(https://competitions.codalab.org/competitions/20331)

The first-place for CAMEO protein Quality estimation

(https://cameo3d.org/quality-estimation/)

The 2nd Place for Urban3D at ICCV 2021

(https://urban3dchallenge.github.io/)

Champion of Contact-map Prediction for CASP12

(http://www.predictioncenter.org/casp12/index.cgi)

Professional activities

Conference Reviewer/Program Committee

& Journal Reviewer

Conference Reviewer/Program Committee

IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 2022

European Conference on Computer Vision (ECCV): 2022

AAAI Conference on Artificial Intelligence (AAAI): 2022

Medical Image Computing and Computer Assisted Intervention (MICCAI): 2020-2022

International Conference on Computer Vision (ICCV): 2019-2021

Journal Reviewer

IEEE Transactions on Neural Networks and Learning Systems (TNNLS), 2020

IEEE Transactions on Multimedia (TMM), 2018

Teaching

Classroom & Workshop leadership

CIE6032&MDS6232

Deep Learning and its Applicaitons

EIE4512

Digital Image Processing

Current Students

Postdoc

Yatong Han

Multimodal Learning Graph Learning Computational Biological2022, Ph.D., Harbin Engineering

University

Ph.D. Students

Ph.D. Year 4

Yinghong Liao

Domain Adaptation, Multi-modal2020, B.S., Sun Yat-sen University

Yiwen Hu

Medical Image Analysis2020, B.S., Anhui Medical University

Wending Zhou

Domain Adaptation2020, B.S., University of Waterloo

Yuncheng Jiang

Medical Image Analysis2020, B.S., University of Electronic Science and Technology of China

Chaoda Zheng

Point Cloud Analysis 2020, M.S. & B.S., South China University of TechnologySRIBD Fellowship

Jun Wei

Weakly Supervised learningMedical Image Analysis 2020, M.S., Institute of Computing

Technology, Chinese Academy of Sciences B.S., HUST CUHKSZ Presidential Fellowship

Ph.D. Year 3

Zixun Zhang

NAS, Pruning, Knowledge Distillation2021, M.S. & B.S., Dalian University of Technology

Haiming Zhang

Point Cloud, Talking Face, GAN2021 M.S. & B.S., Beijing Institute of Technology

Zhihao Yuan

Vision and Language 3D Scene Understanding2021, B.S., Sun Yat-sen University

Zhuo Li

Long-tailed Vision Recognition2021, B.S., Central South University

Ph.D. Year 2

Shuangyi Tan

Medical Image Analysis2022 M.S., London's Global University; B.S., South China University of

Technology

Rui Sun

Domain GeneralizationGAN, AI Fairness2021, M.S., CityU

Yuzhe Zhou

Protein Structure Analysis2021, M.S., HKUST2020, B.S., University of Electronic Science and

Technology of China

Chao Zhan

Diffusion Model

Yueru Luo

3D Lane Detection.

Ph.D. Year 1

Yuxin Cheng

Multi-Modal Representation Learning.

Research Assistant

Jiajian Ma

Computational Neuroscience Medical Image Analysis2021 M.D., Peking University Health Science

Center

Alumni

Guangyi Liu (MBZUAI, Postdoc)

Weibing Zhao (The Hong Kong Polytechnic University (PolyU), Postdoc)

Xu Yan (Senior researcher at Huawei Noah's Ark Lab)

Qin Wang (CTO of Starups)

Huijun Xing (PhD, UCL)

Shen Gao (Huawei)

Weizhen Ding (China Electronics Technology Group)

Yingfeng Lu (PhD, UBC)

Contact

lizhen@cuhk.edu.cn

+86 755-23519595

广东省深圳市龙岗区龙翔大道2001号香港中文大学(深圳)TC410b(邮编:518172)

email for appointment

Dr. Zhen Li (Jason Lee), Ph.D. (University of Hong Kong);

Assistant Professor, School of Science and Engineering, CUHK-SZ (lizhen@cuhk.edu.cn);

Research Scientist, Future Network of Intelligence Institute (FNII) (+86 755-23519595)

×

Cite

Copy

Download

GitHub - kevinlin311tw/cvpr16-deepbit: Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)

GitHub - kevinlin311tw/cvpr16-deepbit: Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

kevinlin311tw

/

cvpr16-deepbit

Public

Notifications

Fork

79

Star

173

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)

License

View license

173

stars

79

forks

Branches

Tags

Activity

Star

Notifications

Code

Issues

15

Pull requests

0

Actions

Projects

0

Security

Insights

Additional navigation options

Code

Issues

Pull requests

Actions

Projects

Security

Insights

kevinlin311tw/cvpr16-deepbit

This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.

 masterBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History10 Commitsanalysisanalysis  cmakecmake  datadata  docsdocs  examplesexamples  include/caffeinclude/caffe  matlabmatlab  modelsmodels  pythonpython  scriptsscripts  srcsrc  toolstools  .Doxyfile.Doxyfile  .gitignore.gitignore  .travis.yml.travis.yml  CMakeLists.txtCMakeLists.txt  CONTRIBUTING.mdCONTRIBUTING.md  CONTRIBUTORS.mdCONTRIBUTORS.md  INSTALL.mdINSTALL.md  LICENSELICENSE  MakefileMakefile  Makefile.config.exampleMakefile.config.example  README.mdREADME.md  aug_img.maug_img.m  aug_img_faster.maug_img_faster.m  caffe.cloccaffe.cloc  prepare.shprepare.sh  run_cifar10.mrun_cifar10.m  startup.mstartup.m  View all filesRepository files navigationREADMELicenseCVPR16-DeepBit

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks

Created by Kevin Lin, Jiwen Lu, Chu-Song Chen, Jie Zhou

Introduction

We propose a new unsupervised deep learning approach to learn compact binary descriptor. We enforce three criterions on binary codes which are learned at the top layer of our network: 1) minimal loss quantization, 2) evenly distributed codes and 3) rotation invariant bits. Then, we learn the parameters of the networks with a back-propagation technique. Experimental results on three different visual analysis tasks including image matching, image retrieval, and object recognition demonstrate the effectiveness of the proposed approach.

The details can be found in the following CVPR 2016 paper

Citation

If you find DeepBit useful in your research, please consider citing:

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks

Kevin Lin, Jiwen Lu, Chu-Song Chen and Jie Zhou

IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016

Prerequisites

MATLAB (tested with 2015a on 64-bit Ubuntu)

Caffe's prerequisites

Installation

Adjust Makefile.config and simply run the following commands:

$ make all -j8

$ make matcaffe

For a faster build, compile in parallel by doing make all -j8 where 8 is the number of parallel threads for compilation (a good choice for the number of threads is the number of cores in your machine).

Retrieval evaluation on CIFAR10

First, run the following command to download and set up CIFAR10 Dataset, VGG16 pre-trained on ILSVRC12, DeepBit 32-bit model trained on CIFAR10. This script will rotate training data and create leveldb files.

$ ./prepare.sh

Launch matalb and run run_cifar10.m to perform the evaluation of precision at k and mean average precision at k. We set k=1000 in the experiments. The bit length of binary codes is 32.

>> run_cifar10

Then, you will get the mAP result as follows.

>> MAP = 0.25446596

Note: CIFAR10 dataset is split into training and test sets, with 50,000 and 10,000 images, respectively. During retrieval process, the 50,000 training images are treated as the database. We use the 10,000 test images as the query samples.

Train DeepBit on CIFAR10

Simply run the following command to train DeepBit:

$ cd /examples/deepbit-cifar10-32

$ ./train.sh

The training process takes a few hours on a desktop with Titian X GPU.

You will finally get your model named DeepBit32_final_iter_1.caffemodel under folder /examples/deepbit-cifar10-32/

To use the model, modify the model_file in run_cifar10.m to link your model:

model_file = './YOUR/MODEL/PATH/filename.caffemodel';

Launch matlab, run run_cifar10.m and test the model!

>> run_cifar10

Resources

Note: This documentation may contain links to third party websites, which are provided for your convenience only. Third party websites may be subject to the third party’s terms, conditions, and privacy statements.

If the automatic "fetch_data" fails, you may manually download the resouces from:

For ./prepare.sh:

VGGNet pre-trained on ILSVC12: MEGA, Dropbox

DeepBit 32bit model pre-trained on cifar10: MEGA, Dropbox

CIFAR10 dataset (jpg format): MEGA, Dropbox, BaiduYun

DeepBit models in the paper:

The proposed models trained on CIFAR10:

16-bit model: MEGA, Dropbox

32-bit model: MEGA, Dropbox

64-bit model: MEGA, Dropbox

Experiments on Descriptor Matching and Object Recognition

comming soon...

Contact

Please feel free to leave suggestions or comments to Kevin Lin (kevinlin311.tw@iis.sinica.edu.tw), Jiwen Lu (lujiwen@tsinghua.edu.cn) or Chu-Song Chen (song@iis.sinica.edu.tw)

About

Learning Compact Binary Descriptors with Unsupervised Deep Neural Networks (CVPR16)

Resources

Readme

License

View license

Activity

Stars

173

stars

Watchers

23

watching

Forks

79

forks

Report repository

Releases

No releases published

Packages

0

No packages published

Contributors

2

 

 

Languages

C++

80.6%

Python

9.0%

Cuda

4.5%

CMake

3.0%

MATLAB

1.7%

Makefile

0.7%

Shell

0.5%

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

btt还有救吗,一直跌一直横盘? - 知乎

btt还有救吗,一直跌一直横盘? - 知乎首页知乎知学堂发现等你来答​切换模式登录/注册股票股市分析股票分析btt还有救吗,一直跌一直横盘?关注者4被浏览6,936关注问题​写回答​邀请回答​好问题 2​添加评论​分享​2 个回答默认排序龙凤呈祥​​ 佛山电器照明股份有限公司 技术员​ 关注在了解了挖矿的概念后,我们不禁要问:怎样挖矿呢?简单的说,任何一台电脑都可以下载专业挖矿软件来进行挖矿,只是效率跟据不同机器的硬件配置状况差别而有所不同罢了。早其,矿工们使用CPU(中央处理器)来挖矿,到后来GPU(显卡)逐渐的取代了利用C在了解了挖矿的概念后,我们不禁要问:怎样挖矿呢?简单的说,任何一台电脑都可以下载专业挖矿软件来进行挖矿,只是效率跟据不同机器的硬件配置状况差别而有所不同罢了。早其,矿工们使用CPU(中央处理器)来挖矿,到后来GPU(显卡)逐渐的取代了利用CPU的挖矿方式。现在为了更有效的挖矿,甚至有人用ASIC(专用集成电路)的专用设备来挖矿。现在,从挖矿的方式来说,主要有两种:1、比特币挖矿软件目前流行的比特币挖矿软件主要有两款,分别是“GUIMiner”和“CGMiner”。GUIMiner有良好的图形化的界面,通过简单的操作便可以掌握。它同时支持ATI和NVIDIA GPU,以及CPU开采。它同时支持个人挖矿模式和集体挖矿模式,并且有矿池列表。CGMiner支持多线程、多矿池、ASIC、ATI挖矿。但是需要在命令行终端进行操作,操作较为复杂。优点是支持windows、linux、mac等多个平台。2、利用比特币矿池挖矿目前全世界有三大矿池,分别是Deepbit、BitcoinCz和BTC Guild。Deepbit是世界上最大的比特币矿池。在注册以后下载挖矿客户端便可以挖矿。另外两个矿池也是如此,唯一不同是收取矿工手续费的算法不同,所以矿工的收益也会有差异。要注意的是Deepbit提供按每股模式和按比例两种收费方式。按每股收费方式收费较高但是比较稳定,按比例收费模式有时很低但是不稳定。你可以选择适合的类型。BitcoinCz按照每开采25个比特币来分配矿工的收益。公式是:(25 BTC + 区块费用 – 2% 手续费) * (矿工股份) / (总股份)BTC Guild 公会收取款项的矿工提供了两种方法。按每次股份收费(PPS)稳定在7.5%的手续费和最近股份(PPLNS)收费,为 3%手续费 +区块交易费。最后看一篇BTT还有投资价值吗?BTT比特流投资价值怎么样?的最新资讯:比特币大涨至交易所,分析师预计比特币将回落至8800美元随着 比特币 走低,交易者将 比特币 转移到交易所,CryptoQuant预计 比特币 将“小幅”回落至9000美元以下。一位分析师警告称, 比特币 ( 比特币4 )逼近9000美元的支撑位,这可能会导致交易所用户大举抛售。根据CryptoQuant的数据,7月15日, 比特币 流入交易所的数量激增。Kraken公布每日有3850万美元的 比特币 流入当交易者从私人 比特币 钱包将 比特币 转移到交易所时,这表明他们希望在短时间内进行交易或出售。反之亦然——据Cointelegraph报道,交易所余额出现了长期下降趋势,在5月份跌至2018年末以来的最低点,当时 比特币4 /USD跌至3100美元。CryptoQuant表示,如今,对疲弱的价格表现的紧张情绪似乎在发出一个信号,为下行波动做好准备。根据主流交易平台Kraken的数据显示,周三有4229个 比特币 (3850万美元)进入交易所,远远超过过去几周500 个 比特币 (455万美元)的平均数量。尽管数据被公布,但Kraken可能正在呈现一种异常情况,这并不能反映交易员的普遍情绪,但总体情况显然是看跌的。CryptoQuant首席执行官Ki Young,Ju在私下里对Cointelegraph表示:“我预计会有小幅回落”。Ki补充说,如果抛售开始,他预计不会达到3月份以来的水平,当时一连串的短期事件使 比特币4 /USD在数小时内暴跌了一半。他表示:“在我看来, 比特币 价格大约会跌至8800美元。”比特币流入交易所三周图表来源:cryptoquant这个数字没有最近其他的目标那么悲观。本周早些时候,Cointelegraph分析师filbfilb强调, 比特币 20周移动均线切入位为8200美元,这是一个现实的买入支撑区。与此同时,对所有交易所而言,资金流入仍远低于3月份暴跌时的水平,这表明投资者仍倾向于持有而非抛售。比特币流入交易所一年图表来源:cryptoquant比特币4的价格下跌了近9000美元比特币 仍然与宏观市场的走势密切相关,而宏观市场本身受冠状病毒和中美地缘政治紧张局势的影响。这种现状很难改变,这是造成自6月第三周以来 比特币4 /USD未能退出交易通道的原因。比特币4/USD 1日线图来源:coinmarketcap截至发稿时, 比特币4 /USD价格为9080美元,抛压似乎与CryptoQuant的预测相符。发布于 2021-05-04 17:48​赞同 2​​2 条评论​分享​收藏​喜欢收起​学海无涯计算机软件开发与编程

区块链技术研究爱好者​ 关注耐心持有,变盘时间节点估计5月中旬,拉新高快速出货,回调低位接回发布于 2021-05-05 23:26​赞同​​2 条评论​分享​收藏​喜欢收起​​

Unsupervised Deep Learning of Compact Binary Descriptors | IEEE Journals & Magazine | IEEE Xplore

Unsupervised Deep Learning of Compact Binary Descriptors | IEEE Journals & Magazine | IEEE Xplore

IEEE Account

Change Username/Password

Update Address

Purchase Details

Payment Options

Order History

View Purchased Documents

Profile Information

Communications Preferences

Profession and Education

Technical Interests

Need Help?

US & Canada: +1 800 678 4333

Worldwide: +1 732 981 0060

Contact & Support

About IEEE Xplore

Contact Us

Help

Accessibility

Terms of Use

Nondiscrimination Policy

Sitemap

Privacy & Opting Out of Cookies

A not-for-profit organization, IEEE is the world's largest technical professional organization dedicated to advancing technology for the benefit of humanity.© Copyright 2024 IEEE - All rights reserved. Use of this web site signifies your agreement to the terms and conditions.