关键词[c������������������]相关搜索结果,共搜索到61750条结果

数据挖掘之回归聚类算法总结

𝑥+𝑏)<1and𝛼=𝐶(在分割超平面内,是误差点->C表示它该受到的惩罚因子程度)C值越大,表示离群点影响越大,就越容易过度拟合;反之有可能欠拟合。我们看到,目标函数控制了离群点的数目和程度,使大部分样本点仍然遵守限制条件。例如:正类有10000个样本,而负类只给了100个(C越大表示100个负样本的影响越大,就会出现过度拟合,所以C决定了负样本对模型拟合程度的影响!,C就是一个非常关键的优化点。)经过添加松弛变量的方法,我们现在能够解决数据更加混乱的问题。通过修改参数C,我们可以得到不同的结果而C的大小到底取多少比较合适,需要根据实际问题进行调节。(1)线性可分支持向量

Educational Codeforces Round 69 (Rated for Div. 2) C. Array Splitting 水题

C.ArraySplittingYouaregivenasortedarray𝑎1,𝑎2,…,𝑎𝑛(foreachindex𝑖>1condition𝑎𝑖≥𝑎𝑖−1holds)andaninteger𝑘.Youareaskedtodividethisarrayinto𝑘non-emptyconsecutivesubarrays.Everyelementinthearrayshouldbeincludedinexactlyonesubarray.Let𝑚𝑎𝑥(𝑖)beequaltothemaximuminthe𝑖-thsubarray,and𝑚𝑖𝑛(�

反向求导

1.2神经网络的反向求导在上一节中,我们大致对神经网络的梯度更新有了了解,其中最核心的部分就是求出损失函数对权重 wijl">𝑤𝑙𝑖𝑗wijl 的导数。由于网上大多数资料都是生搬硬套,因此我们以计算 W1">𝑊1W1 的导数为例,对整个反向求导过程进行细致的剖析。如下图所示:其中,wjkl">𝑤𝑙𝑗𝑘wjkl 表示从第 l">𝑙l 层的第 j">𝑗j 个节点到第 l+1">𝑙+1l+1 层中的第 k">𝑘k 个节点的权重,根据前向传播的计算我们可以得到:yout&#x223C;(w113w112+w213w122)w111x1,&#x2202;yout&#x2202;w111=(w113w112+w213w122)x1;yout&#x223C;(w113w112+w213w122)w211x2,&#x2202;yout&#x2202;w211=(w113w112+w213w122)x2yout&#x223C;(w113w212+w213w222)w121x1,&#x2202;yout&#x2202;w121=(w113w212+w213w222)x1;yout&#x223C;(w113w212+w213w222)w221x1,&#x2202;yout&#x2202;w221=(w113w212+w213w222)x2yout&#x223C;(w113w312+w213w322)w131x1,&#x2202;yout&#x2202;w131=(w113w312+w213w322)x1;yout&#x223C;(w113w312+w213w322)w231x2,&#x2202;yout&#x2202;w231=(w113w312+w213w322)x2">𝑦𝑜𝑢𝑡∼(𝑤311𝑤211+𝑤321𝑤212)𝑤111𝑥1,∂𝑦𝑜𝑢𝑡∂𝑤111=(𝑤311𝑤211+𝑤321𝑤212)𝑥1;𝑦𝑜𝑢𝑡∼(𝑤311𝑤211+𝑤321𝑤212)𝑤121𝑥2,∂𝑦𝑜𝑢𝑡∂𝑤121=(𝑤311𝑤211+𝑤321𝑤212)𝑥2𝑦𝑜𝑢𝑡∼(𝑤311𝑤221+𝑤321𝑤222)𝑤112𝑥1,∂𝑦𝑜𝑢𝑡∂𝑤112=(𝑤311𝑤221+𝑤321𝑤222)𝑥1;𝑦𝑜𝑢𝑡∼(𝑤311𝑤221+𝑤321𝑤222)𝑤122𝑥1,∂𝑦𝑜𝑢𝑡∂𝑤122=(𝑤311𝑤221+𝑤321𝑤222)𝑥2𝑦𝑜𝑢𝑡∼(𝑤311𝑤231+𝑤321𝑤232)𝑤113𝑥1,∂𝑦𝑜𝑢𝑡∂𝑤113=(𝑤311𝑤231+𝑤321𝑤232)𝑥1;𝑦𝑜𝑢𝑡∼(𝑤311𝑤231+𝑤321𝑤232)𝑤123𝑥2,∂𝑦𝑜𝑢𝑡∂𝑤123=(𝑤311𝑤231+𝑤321𝑤232)𝑥2yout∼(w113w112+w213w122)w111x1,∂yout∂w111=(w113w112+w213w122)x1;yout∼(w113w112+w213w122)w211x2,∂yout∂w211=(w113w112+w213w122)x2yout∼(w113w212+w213w222)w121x1,∂yout∂w121=(w113w212+w213w222)x1;yout∼(w113w212+w213w222)w221x1,∂yout∂w221=(w113w212+w213w222)x2yout∼(w113w312+w213w322)w131x1,∂yout∂w131=(w113w312+w213w322)x1;yout∼(w113w312+w213w322)w231x2,∂yout∂w231=(w113w312+w213w322)x2用矩阵表示为:&#x2202;L&#x2202;W1=[&#x2202;yout&#x2202;w111&#x2202;yout&#x2202;w211&#x2202;yout&#x2202;w121&#x2202;yout&#x2202;w221&#x2202;yout&#x2202;w131&#x2202;yout&#x2202;w231]=([w113w112+w213w122w113w212+w213w222w113w212+w213w322]&#x2299;[x1x2])T=(W3W2&#x2299;X)T">∂𝐿∂𝑊1=⎡⎣⎢⎢⎢⎢⎢⎢⎢∂𝑦𝑜𝑢𝑡∂𝑤111∂𝑦𝑜𝑢𝑡∂𝑤112∂𝑦𝑜𝑢𝑡∂𝑤113∂𝑦𝑜𝑢𝑡∂𝑤121∂𝑦𝑜𝑢𝑡∂𝑤122∂𝑦𝑜𝑢𝑡∂𝑤123⎤⎦⎥⎥⎥⎥⎥⎥⎥=([𝑤311𝑤211+𝑤321𝑤212𝑤311𝑤221+𝑤321𝑤222𝑤311𝑤221+𝑤321𝑤232]⊙[𝑥1𝑥2])𝑇=(𝑊3𝑊2⊙𝑋)𝑇∂L∂W1=[∂yout∂w111∂yout∂w211∂yout∂w121∂yout∂w221∂yout∂w131∂yout∂w231]=([w113w112+w213w122w113w212+w213w222w113w212+w213w322]⊙[x1x2])T=(W3W2⊙X)T因此,整个反向传播的过程如下:首先计算:&#x2202;L&#x2202;W3=&#x2202;L&#x2202;yout&#x2299;(&#x2202;yout&#x2202;W3)T=&#x2202;L&#x2202;yout&#x2299;[&#x2202;yout&#x2202;w113,&#x2202;yout&#x2202;w123]T=&#x2202;L&#x2202;yout&#x2299;(Z2)T">∂𝐿∂𝑊3=∂𝐿∂𝑦𝑜𝑢𝑡⊙(∂𝑦𝑜𝑢𝑡∂𝑊3)𝑇=∂𝐿∂𝑦𝑜𝑢𝑡⊙[∂𝑦𝑜𝑢𝑡∂𝑤311,∂𝑦𝑜𝑢𝑡∂𝑤312]𝑇=∂𝐿∂𝑦𝑜𝑢𝑡⊙(𝑍2)𝑇∂L∂W3=∂L∂yout⊙(∂yout∂W3)T=∂L∂yout⊙[∂yout∂w113,∂yout∂w123]T=∂L∂yout⊙(Z2)T然后计算:&#x2202;L&#x2202;W2=&#x2202;L&#x2202;yout(&#x2202;yout&#x2202;Z2&#x2299;&#x2202;Z2&#x2202;W2)T=&#x2202;L&#x2202;yout(&#x2202;yout&#x2202;Z2&#x2299;Z1)T=&#x2202;L&#x2202;yout(W3&#x2299;Z1)T">∂𝐿∂𝑊2=∂𝐿∂𝑦𝑜𝑢𝑡(∂𝑦𝑜𝑢𝑡∂𝑍2⊙∂𝑍2∂𝑊2)𝑇=∂𝐿∂𝑦𝑜𝑢𝑡(∂𝑦𝑜𝑢𝑡∂𝑍2⊙𝑍1)𝑇=∂𝐿∂𝑦𝑜𝑢𝑡(𝑊3⊙𝑍1)𝑇∂L∂W2=∂L∂yout(∂yout∂Z2⊙∂Z2∂W2)T=∂L∂yout(∂yout∂Z2⊙Z1)T=∂L∂yout(W3⊙Z1)T最后计算:&#x2202;L&#x2202;W1=&#x2202;L&#x2202;yout(&#x2202;yout&#x2202;Z2&#x2202;Z2&#x2202;Z1&#x2299;&#x2202;Z1&#x2202;W1)T=&#x2202;L&#x2202;W1(W3W2&#x2299;X)T">∂𝐿∂𝑊1=∂𝐿∂𝑦𝑜𝑢𝑡(∂𝑦𝑜𝑢𝑡∂𝑍2∂𝑍2∂𝑍1⊙∂𝑍1∂𝑊1)𝑇=∂𝐿∂𝑊1(𝑊3𝑊2⊙𝑋)𝑇∂L∂W1=∂L∂yout(∂yout∂Z2∂Z2∂Z1⊙∂Z1∂W1)T=∂L∂W1(W3W2⊙X)T为了方便计算,反向传播通过使用计算图的形式在Tensorflow,PyTorch等深度学习框架中实现,将上述过程绘制成计算图如下:根据计算图,可以轻而易举地计算出损失函数对每个变量的导数。

吴恩达《深度学习》-课后测验-第五门课 序列模型(Sequence Models)-Week 1: Recurrent Neural Networks(第一周测验:循环神经网络)

Week1Quiz:RecurrentNeuralNetworks(第一周测验:循环神经网络)\1.Supposeyourtrainingexamplesaresentences(sequencesofwords).Whichofthefollowingreferstothejthwordintheithtrainingexample?(假设你的训练样本是句子(单词序列),下面哪个选项指的是第𝑖个训练样本中的第𝑗个词?)【】$𝑥^{(𝑖)<𝑗>}$【】\(𝑥^{<𝑖>(𝑗)}\)【】\(𝑥^{(𝑗)<𝑖>}\)【】\(𝑥^{<𝑗>(𝑖)}\)答案【★】𝑥(𝑖)<𝑗>(注:首先获取第𝑖个训练样本(用括号表示),然后到𝑗列获取单词(用括尖括号表示)。)\2.ConsiderthisRNN:Thisspecifictypeofarchitectureisappropriatewhen:(看一下下面的这个循环神经网络:在下面的条件中,满足上图中的网络结构的参数是)【】$𝑇_𝑥=𝑇_𝑦$【】$𝑇_𝑥<𝑇_𝑦$【】\(𝑇_𝑥>𝑇_𝑦\)【】$𝑇_𝑥=1$答案【★】𝑇𝑥=𝑇𝑦\3.Towhichofthesetaskswouldyouapplyamany-to-oneRNNarchitecture?(Checkallthatapply).(上图中每一个输入都与输出相匹配。这些任务中的哪一个会使用多对一的RNN体系结构?)【】Speechrecognition(inputanaudioclipandoutputatranscript)(语音识别(输入语音,输出文本)。)【】Sentimentclassification(inputapieceoftextandoutputa0/1todenotepositiveornegativesentiment)(情感分类(输入一段文字,输出0或1表示正面或者负面的情绪)。)【】Imageclassification(inputanimageandoutputalabel)(图像分类(输入一张图片,输出对应的标签)。)【】Genderrecognitionfromspeech(inputanaudioclipandoutputalabelindicatingthespeaker’sgender)(人声性别识别(输入语音,输出说话人的性别)。)答案【★】Sentimentclassification(inputapieceoftextandoutputa0/1todenotepositiveornegativesentiment)(情感分类(输入一段文字,输出0或1表示正面或者负面的情绪)。)【★】Genderrecognitionfromspeech(inputanaudioclipandoutputalabelindicatingthespeaker’sgender)(人声性别识别(输入语音,输出说话人的性别)。)\4.YouaretrainingthisRNNlanguagemodel.Atthe\(𝑡^{th}\)timestep,whatistheRNNdoing?Choosethebestanswer.(假设你现在正在训练下面这个RNN的语言模型:在𝑡时,这个RNN在做什么?)【】Estimating𝑃(\(𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡−1>}\))(计算𝑃(\(𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡−1>}\)))【】Estimating𝑃(\(𝑦^{<𝑡>}\))(计算𝑃(\(𝑦^{<𝑡>}\)))【】Estimating\(𝑃(𝑦∣𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡>})\)(计算\(𝑃(𝑦∣𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡>})\))【】Estimating\(𝑃(𝑦∣𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡−1>})\)(计算\(𝑃(𝑦∣𝑦^{<1>},𝑦^{<2>},…,𝑦^{<𝑡−1>})\))答案Yes,inalanguagemodelwetrytopredictthenextstepbasedontheknowledgeofallpriorsteps【★】Estimating𝑃(𝑦∣𝑦<1>,𝑦<2>,…,𝑦<𝑡>)(计算𝑃(𝑦∣𝑦<1>,𝑦<2>,…,𝑦<𝑡-1>))\5.YouhavefinishedtrainingalanguagemodelRNNandareusingittosamplerandomsentences,asfollows:Whatareyoudoingateachtimestep𝑡?(你已经完成了一个语言模型RNN的训练,并用它来对句子进行随机取样,如下图:在每个时间步𝑡都在做什么?)【】UsetheprobabilitiesoutputbytheRNNtopickthehighestprobabilitywordforthattime-stepas\(𝑦^{<𝑡>}\).(ii)Thenpasstheground-truthwordfromthetrainingsettothenexttimestep.((1)使用RNN输出的概率,选择该时间步的最高概率单词作为\(𝑦^{<𝑡>}\),(2)然后将训练集中的正确的单词传递到下一个时间步。)【】UsetheprobabilitiesoutputbytheRNNtorandomlysampleachosenwordforthattime-stepas\(𝑦^{<𝑡>}\).(ii)Thenpasstheground-truthwordfromthetrainingsettothenexttimestep.((1)使用由RNN输出的概率将该时间步的所选单词进行随机采样作为\(𝑦^{<𝑡>}\),(2)然后将训练集中的实际单词传递到下一个时间步。)【】UsetheprobabilitiesoutputbytheRNNtopickthehighestprobabilitywordforthattime-stepas\(𝑦^{<𝑡>}\).(ii)Thenpassthisselectedwordtothenexttime-step.((1)使用由RNN输出的概率来选择该时间步的最高概率词作为\(𝑦^{<𝑡>}\),(2)然后将该选择的词传递给下一个时间步。)【】UsetheprobabilitiesoutputbytheRNNtorandomlysampleachosenwordforthattime-stepas\(𝑦^{<𝑡>}\).(ii)Thenpassthisselectedwordtothenexttime-step.((1)使用RNN该时间步输出的概率对单词随机抽样的结果作为\(𝑦^{<𝑡>}\),(2)然后将此选定单词传递给下一个时间步。)答案【★】(i)UsetheprobabilitiesoutputbytheRNNtorandomlysampleachosenwordforthattime-stepas𝑦<𝑡>.(ii)Thenpassthisselectedwordtothenexttime-step.((1)使用RNN该时间步输出的概率对单词随机抽样的结果作为𝑦<𝑡>,(2)然后将此选定单词传递给下一个时间步。)\6.YouaretraininganRNN,andfindthatyourweightsandactivationsarealltakingonthevalueofNaN(“NotaNumber”).Whichoftheseisthemostlikelycauseofthisproblem?【】Vanishinggradientproblem.(梯度消失。)【】Explodinggradientproblem.(梯度爆炸。)【】ReLUactivationfunctiong(.)usedtocomputeg(z),wherezistoolarge.(ReLU函数作为激活函数𝑔(.),在计算𝑔(𝑧)时,𝑧的数值过大了。)【】Sigmoidactivationfunctiong(.)usedtocomputeg(z),wherezistoolarge.(Sigmoid函数作为激活函数𝑔(.),在计算𝑔(𝑧)时,𝑧的数值过大了。)答案【★】Explodinggradientproblem.(梯度爆炸。)7.SupposeyouaretrainingaLSTM.Youhavea10000wordvocabulary,andareusinganLSTMwith100-dimensionalactivationsa.WhatisthedimensionofΓuateachtimestep?(假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,𝛤𝑢的维度是多少?)【】1【】100【】300【】10000答案【★】100(注:𝛤𝑢的向量维度等于LSTM中隐藏单元的数量。)\8.Here’retheupdateequationsfortheGRU.AliceproposestosimplifytheGRUbyalwaysremovingthe\(𝛤_𝑢\).I.e.,setting\(𝛤_𝑢\)=1.BettyproposestosimplifytheGRUbyremovingthe\(𝛤_𝑟\).I.e.,setting\(𝛤_𝑟\)=1always.Whichofthesemodelsismorelikelytoworkwithoutvanishinggradientproblemsevenwhentrainedonverylonginputsequences?(这里有一些GRU的更新方程:爱丽丝建议通过移除\(𝛤_𝑢\)来简化GRU,即设置\(𝛤_𝑢\)=1。贝蒂提出通过移除\(𝛤_𝑟\)来简化GRU,即设置\(𝛤_𝑟\)=1。哪种模型更容易在梯度不消失问题的情况下训练,即使在很长的输入序列上也可以进行训练?)【】Alice’smodel(removing\(𝛤_𝑢\)),becauseif\(𝛤_𝑟\)≈0foratimestep,thegradientcanpropagatebackthroughthattimestepwithoutmuchdecay.(爱丽丝的模型(即移除𝛤𝑢),因为对于一个时间步而言,如果𝛤𝑟≈0,梯度可以通过时间步反向传播而不会衰减。)【】Alice’smodel(removing𝛤𝑢),becauseif𝛤𝑟≈1foratimestep,thegradientcanpropagatebackthroughthattimestepwithoutmuchdecay.(爱丽丝的模型(即移除𝛤𝑢),因为对于一个时间步而言,如果𝛤𝑟≈1,梯度可以通过时间步反向传播而不会衰减。)【】Betty’smodel(removing𝛤𝑟),becauseif𝛤u≈0foratimestep,thegradientcanpropagatebackthroughthattimestepwithoutmuchdecay.(贝蒂的模型(即移除𝛤𝑟),因为对于一个时间步而言,如果𝛤u≈0,梯度可以通过时间步反向传播而不会衰减。)【】Betty’smodel(removing𝛤𝑟),becauseif𝛤u≈1foratimestep,thegradientcanpropagatebackthroughthattimestepwithoutmuchdecay.(贝蒂的模型(即移除𝛤𝑟),因为对于一个时间步而言,如果𝛤u≈1,梯度可以通过时间步反向传播而不会衰减。)答案【★】Betty’smodel(removing𝛤𝑟),becauseif𝛤u≈0foratimestep,thegradientcanpropagatebackthroughthattimestepwithoutmuchdecay.(贝蒂的模型(即移除𝛤𝑟),因为对于一个时间步而言,如果𝛤u≈0,梯度可以通过时间步反向传播而不会衰减。)(注:要使信号反向传播而不消失,我们需要𝑐<𝑡>高度依赖于𝑐<𝑡−1>。)\9.HerearetheequationsfortheGRUandtheLSTM:Fromthese,wecanseethattheUpdateGateandForgetGateintheLSTMplayarolesimilarto_and__intheGRU.Whatshouldgointhetheblanks?(这里有一些GRU和LSTM的方程:从这些我们可以看到,在LSTM中的更新门和遗忘门在GRU中扮演类似___与___的角色,空白处应该填什么?)【】𝛤𝑢与1−𝛤𝑢(𝛤𝑢与1−𝛤𝑢)【】𝛤𝑢与𝛤𝑟(𝛤𝑢与𝛤𝑟)【】1−𝛤𝑢与𝛤𝑢(1−𝛤𝑢与𝛤𝑢)【】𝛤𝑟与𝛤𝑢(𝛤𝑟与𝛤𝑢)答案【★】𝛤𝑢与1−𝛤𝑢(𝛤𝑢与1−𝛤𝑢)\10.Youhaveapetdogwhosemoodisheavilydependentonthecurrentandpastfewdays’weather.You’vecollecteddataforthepast365daysontheweather,whichyourepresentasasequenceas\(𝑥^{<1>},…,𝑥^{<365>}\).You’vealsocollecteddataonyourdog’smood,whichyourepresentas\(𝑦^{<1>},…,𝑦^{<365>}\).You’dliketobuildamodeltomapfromx→y.ShouldyouuseaUnidirectionalRNNorBidirectionalRNNforthisproblem?(你有一只宠物狗,它的心情很大程度上取决于当前和过去几天的天气。你已经收集了过去365天的天气数据\(𝑥^{<1>},…,𝑥^{<365>}\),这些数据是一个序列,你还收集了你的狗心情的数据\(𝑦^{<1>},…,𝑦^{<365>}\),你想建立一个模型来从𝑥到𝑦进行映射,你应该使用单向RNN还是双向RNN来解决这个问题?)【】BidirectionalRNN,becausethisallowsthepredictionofmoodonday𝑡totakeintoaccountmoreinformation.(双向RNN,因为在𝑡日的情绪预测中可以考虑到更多的信息。)【】BidirectionalRNN,becausethisallowsbackpropagationtocomputemoreaccurategradients.(双向RNN,因为这允许反向传播计算中有更精确的梯度。)【】UnidirectionalRNN,becausethevalueof\(𝑦^{<𝑡>}\)dependsonlyon\(𝑥^{<1>},…,𝑥^{<𝑡>}\),butnoton\(𝑥^{<𝑡+1>},…,𝑥^{<365>}\)(单向RNN,因为\(𝑦^{<𝑡>}\)的值仅依赖于\(𝑥^{<1>},…,𝑥^{<𝑡>}\),而不依赖于\(𝑥^{<𝑡+1>},…,𝑥^{<365>}\)。)【】UnidirectionalRNN,becausethevalueof\(𝑦^{<𝑡>}\)dependsonlyon\(𝑥^{<𝑡>}\),andnototherdays’weather.(单向RNN,因为\(𝑦^{<𝑡>}\)的值只取决于\(𝑥^{<𝑡>}\),而不是其他天的天气。)答案【★】UnidirectionalRNN,becausethevalueof𝑦<𝑡>dependsonlyon𝑥<1>,…,𝑥<𝑡>,butnoton𝑥<𝑡+1>,…,𝑥<365>(单向RNN,因为𝑦<𝑡>的值仅依赖于𝑥<1>,…,𝑥<𝑡>,而不依赖于𝑥<𝑡+1>,…,𝑥<365>。)Week1CodeAssignments:✧Course5-序列模型(SequenceModels)-第一周测验-循环神经网络✦assignment1:BuildingyourRecurrentNeuralNetwork-StepbyStep)✦assignment2:Characterlevellanguagemodel-Dinosaurusland)✦assignment3:ImproviseaJazzSolowithanLSTMNetwork)

Codeforces Round #594 (Div. 2) A. Integer Points 水题

A.IntegerPointsDLSandJLSareboredwithaMathlesson.Inordertoentertainthemselves,DLStookasheetofpaperanddrew𝑛distinctlines,givenbyequations𝑦=𝑥+𝑝𝑖forsomedistinct𝑝1,𝑝2,…,𝑝𝑛.ThenJLSdrewonthesamepapersheet𝑚distinctlinesgivenbyequations𝑦=−𝑥+𝑞𝑖forsomedistinct𝑞1,𝑞2,…,𝑞𝑚.DLSandJLSareinterestedincountinghowmanylinepairshaveintegerintersectionpoints,i.e.pointswithbothcoordinatesthatareintegers.Unfortunately,thelessonwillendupsoon,soDLSandJLSareaskingforyourhelp.InputThefirstlinecontainsoneinteger𝑡(1≤𝑡≤1000),thenumberoftestcasesintheinput.Thenfollowthetestcasedescriptions.Thefirstlineofatestcasecontainsaninteger𝑛(1≤𝑛≤105),thenumberoflinesdrawnbyDLS.Thesecondlineofatestcasecontains𝑛distinctintegers𝑝𝑖(0≤𝑝𝑖≤109)describingthelinesdrawnbyDLS.Theinteger𝑝𝑖describesalinegivenbytheequation𝑦=𝑥+𝑝𝑖.Thethirdlineofatestcasecontainsaninteger𝑚(1≤𝑚≤105),thenumberoflinesdrawnbyJLS.Thefourthlineofatestcasecontains𝑚distinctintegers𝑞𝑖(0≤𝑞𝑖≤109)describingthelinesdrawnbyJLS.Theinteger𝑞𝑖describesalinegivenbytheequation𝑦=−𝑥+𝑞𝑖.Thesumofthevaluesof𝑛overalltestcasesintheinputdoesnotexceed105.Similarly,thesumofthevaluesof𝑚overalltestcasesintheinputdoesnotexceed105.Inhacksitisallowedtouseonlyonetestcaseintheinput,so𝑡=1shouldbesatisfied.OutputForeachtestcaseintheinputprintasingleinteger—thenumberoflinepairswithintegerintersectionpoints.Exampleinput3313220311111211output310NoteThepictureshowsthelinesfromthefirsttestcaseoftheexample.Blackcirclesdenoteintersectionpointswithintegercoordinates.题意一个二维平面,有两种线,一种是y=x+p[i],一种是y=-x+q[i],问你这两种直线相交后,有多少个整数交点。题解我们解出来相交点为x=(p[i]+q[i])/2,那么只要同奇偶,就是整数交点代码#include<bits/stdc++.h>usingnamespacestd;constintmaxn=100005;intp[maxn],q[maxn],n,m;voidsolve(){vector<int>cnt1(2,0),cnt2(2,0);scanf("%d",&n);for(inti=0;i<n;i++){scanf("%d",&p[i]);cnt1[p[i]%2]++;}scanf("%d",&m);for(inti=0;i<m;i++){scanf("%d",&q[i]);cnt2[q[i]%2]++;}cout<<1ll*cnt1[0]*cnt2[0]+1ll*cnt1[1]*cnt2[1]<<endl;}intmain(){intt;scanf("%d",&t);while(t--){solve();}}

Call for papers + 技术竞赛

🌈2021-11-30IEEEJournalofOceanicEngineeringSpecialIssueonAdvancedMachineLearningMethodologiesforUnderwaterImageandVideoProcessingandAnalysis,链接

2021-2022 ICPC, NERC, Northern Eurasia Onsite I. Interactive Treasure Hunt(交互)

ofthem.Youcanmaketwotypesofoperations:DIG𝑟r𝑐c:trytofindthetreasureinthecell(𝑟,𝑐)(r,c).Theinteractorwilltellyouifyoufoundthetreasureornot.SCAN𝑟r𝑐c:scanfromthecell(𝑟,𝑐)(r,c).TheresultofthisoperationisthesumofManhattandistancesfromthecell(𝑟,𝑐)(r,c)tothecellswherethetreasuresarehidden.Manhatta

使用PHP获取图像文件的EXIF信息

yL=w%s_&voJ$Gdz|d9n//~+92V:+оQn]۲͐UnwFw;fhki*wbd+D0=\oyx\,BS#/d9˓//,%C3eIZ~oLܰܡ~}#y:4Ӥ}dȻGI*Y//m)x#a6J<2zB32Ol*8//wW"EcOVl9pfKAFUg<Iʯ9ES//UޘCO>ʈ7ݪGT&,Ie%/

Codeforces Round #596 (Div. 2, based on Technocup 2020 Elimination Round 2) A. Forgetting Things 水题

A.ForgettingThingsKolyaisveryabsent-minded.Todayhismathteacheraskedhimtosolveasimpleproblemwiththeequation𝑎+1=𝑏withpositiveintegers𝑎and𝑏,butKolyaforgotthenumbers𝑎and𝑏.Hedoes,however,rememberthatthefirst(leftmost)digitof𝑎was𝑑𝑎,andthefirst(leftmost)digitof𝑏was𝑑𝑏.Canyoureconstructanyequation𝑎+1=𝑏thatsatisfiesthisproperty?ItmaybepossiblethatKolyamisremembersthedigits,andthereisnosuitableequation,inwhichcasereportso.InputTheonlylinecontainstwospace-separateddigits𝑑𝑎and𝑑𝑏(1≤𝑑𝑎,𝑑𝑏≤9).OutputIfthereisnoequation𝑎+1=𝑏withpositiveintegers𝑎and𝑏suchthatthefirstdigitof𝑎is𝑑𝑎,andthefirstdigitof𝑏is𝑑𝑏,printasinglenumber−1.Otherwise,printanysuitable𝑎and𝑏thatbotharepositiveanddonotexceed109.Itisguaranteedthatifasolutionexists,therealsoexistsasolutionwithbothnumbersnotexceeding109.Examplesinput12output199200题意现在告诉你a+1=b,现在给你a和b的最高位,然后让你输出可能的a和b是什么,如果无解输出-1题解可能性就3种,其他都无解,枚举这种可能性就好。代码#include<iostream>usingnamespacestd;intmain(){inta,b;cin>>a>>b;if(b==1&&a==9){cout<<"910"<<endl;}elseif(b-a==1){cout<<a<<""<<b<<endl;}elseif(a==b){cout<<a<<"1"<<b<<"2"<<endl;}else{cout<<"-1"<<endl;}}

Codeforces Round #597 (Div. 2) D. Shichikuji and Power Grid 最小生成树

t;=n;i++){scanf("%d%d",&ax[i],&ay[i]);}for(inti=1;i<=n;i++){scanf("%d",&c[i]);}for(inti=1;i<=n;i++){scanf("%d",&k[i]);}for(inti=1;i<=n;i++){m[0][i]=c[i];fa[i]=i;Edge.push_back(make_pair(c[i],make_pair(0,i)));}for(inti=1;i<=n;i++){for(intj=i+1;j<=n;j++){longlongcost=1l

常用网络&特殊符号大全(含彩色表情符号)

1、常用符号❤❥웃유♋☮✌☏☢☠✔☑♚▲♪✈✞÷↑↓◆◇⊙■□△▽¿─│♥❣♂♀☿Ⓐ✍✉☣☤✘☒♛▼♫⌘☪≈←→◈◎☉★☆⊿※¡━┃♡ღツ☼☁❅♒✎©®™Σ✪✯☭➳卐√↖↗●◐Θ◤◥︻〖〗┄┆℃℉°✿ϟ☃☂✄¢€£∞✫★½✡×↙↘○◑⊕◣◢︼【】┅┇☽☾✚〓▂▃▄▅▆▇█▉▊▋▌▍▎▏↔↕☽☾の•▸◂▴▾┈┊①②③④⑤⑥⑦⑧⑨⑩ⅠⅡⅢⅣⅤⅥⅦⅧⅨⅩ㍿▓♨♛❖♓☪✙┉┋☹☺☻تヅツッシÜϡﭢ™℠℗©®♥❤❥❣❦❧♡۵웃유ღ♋♂♀☿☼☀☁☂☄☾☽❄☃☈⊙☉℃℉❅✺ϟ☇♤♧♡♢♠♣♥♦☜☞☝✍☚☛☟✌✽✾✿❁❃❋❀⚘☑✓✔√☐☒✗✘ㄨ✕✖✖⋆✢✣✤✥❋✦✧✩✰✪✫✬✭✮✯❂✡★✱✲✳✴✵✶✷✸✹✺✻✼❄❅❆❇❈❉❊†☨✞✝☥☦☓☩☯☧☬☸✡♁✙♆。,、':∶;?‘’“”〝〞ˆˇ﹕︰﹔﹖﹑•¨….¸;!´?!~—ˉ|‖"〃`@﹫¡¿﹏﹋﹌︴々﹟#﹩$﹠&﹪%*﹡﹢﹦﹤‐ ̄¯―﹨ˆ˜﹍﹎+=<_-\ˇ~﹉﹊()〈〉‹›﹛﹜『』〖〗[]《》〔〕{}「」【】︵︷︿︹︽﹁﹃︻︶︸﹀︺︾ˉ﹂﹄︼☩☨☦✞✛✜✝✙✠✚†‡◉○◌◍◎●◐◑◒◓◔◕◖◗❂☢⊗⊙◘◙◍⅟½⅓⅕⅙⅛⅔⅖⅚⅜¾⅗⅝⅞⅘≂≃≄≅≆≇≈≉≊≋≌≍≎≏≐≑≒≓≔≕≖≗≘≙≚≛≜≝≞≟≠≡≢≣≤≥≦≧≨≩⊰⊱⋛⋚∫∬∭∮∯∰∱∲∳%℅‰‱㊣㊎㊍㊌㊋㊏㊐㊊㊚㊛㊤㊥㊦㊧㊨㊒㊞㊑㊒㊓㊔㊕㊖㊗㊘㊜㊝㊟㊠㊡㊢㊩㊪㊫㊬㊭㊮㊯㊰㊙㉿囍♔♕♖♗♘♙♚♛♜♝♞♟ℂℍℕℙℚℝℤℬℰℯℱℊℋℎℐℒℓℳℴ℘ℛℭ℮ℌℑℜℨ♪♫♩♬♭♮♯°øⒶ☮✌☪✡☭✯卐✐✎✏✑✒✍✉✁✂✃✄✆✉☎☏➟➡➢➣➤➥➦➧➨➚➘➙➛➜➝➞➸♐➲➳⏎➴➵➶➷➸➹➺➻➼➽←↑→↓↔↕↖↗↘↙↚↛↜↝↞↟↠↡↢↣↤↥↦↧↨➫➬➩➪➭➮➯➱↩↪↫↬↭↮↯↰↱↲↳↴↵↶↷↸↹↺↻↼↽↾↿⇀⇁⇂⇃⇄⇅⇆⇇⇈⇉⇊⇋⇌⇍⇎⇏⇐⇑⇒⇓⇔⇕⇖⇗⇘⇙⇚⇛⇜⇝⇞⇟⇠⇡⇢⇣⇤⇥⇦⇧⇨⇩⇪➀➁➂➃➄➅➆➇➈➉➊➋➌➍➎➏➐➑➒➓㊀㊁㊂㊃㊄㊅㊆㊇㊈㊉ⒶⒷⒸⒹⒺⒻⒼⒽⒾⒿⓀⓁⓂⓃⓄⓅⓆⓇⓈⓉⓊⓋⓌⓍⓎⓏⓐⓑⓒⓓⓔⓕⓖⓗⓘⓙⓚⓛⓜⓝⓞⓟⓠⓡⓢⓣⓤⓥⓦⓧⓨⓩ⒜⒝⒞⒟⒠⒡⒢⒣⒤⒥⒦⒧⒨⒩⒪⒫⒬⒭⒮⒯⒰⒱⒲⒳⒴⒵ⅠⅡⅢⅣⅤⅥⅦⅧⅨⅩⅪⅫⅬⅭⅮⅯⅰⅱⅲⅳⅴⅵⅶⅷⅸⅹⅺⅻⅼⅽⅾⅿ┌┍┎┏┐┑┒┓└┕┖┗┘┙┚┛├┝┞┟┠┡┢┣┤┥┦┧┨┩┪┫┬┭┮┯┰┱┲┳┴┵┶┷┸┹┺┻┼┽┾┿╀╁╂╃╄╅╆╇╈╉╊╋╌╍╎╏═║╒╓╔╕╖╗╘╙╚╛╜╝╞╟╠╡╢╣╤╥╦╧╨╩╪╫╬◤◥◄►▶◀◣◢▲▼◥▸◂▴▾△▽▷◁⊿▻◅▵▿▹◃❏❐❑❒▀▁▂▃▄▅▆▇▉▊▋█▌▍▎▏▐░▒▓▔▕■□▢▣▤▥▦▧▨▩▪▫▬▭▮▯㋀㋁㋂㋃㋄㋅㋆㋇㋈㋉㋊㋋㏠㏡㏢㏣㏤㏥㏦㏧㏨㏩㏪㏫㏬㏭㏮㏯㏰㏱㏲㏳㏴㏵㏶㏷㏸㏹㏺㏻㏼㏽㏾㍙㍚㍛㍜㍝㍞㍟㍠㍡㍢㍣㍤㍥㍦㍧㍨㍩㍪㍫㍬㍭㍮㍯㍰㍘☰☲☱☴☵☶☳☷☯2、特殊符号♠♣♧♡♥❤❥❣♂♀✲☀☼☾☽◐◑☺☻☎☏✿❀№↑↓←→√×÷★℃℉°◆◇⊙■□△▽¿½☯✡㍿卍卐♂♀✚〓㎡♪♫♩♬㊚㊛囍㊒㊖Φ♀♂‖KaTeXparseerror:Expected'EOF',got'&'atposition3:@*&̲#※卍卐Ψ♫♬♭♩♪♯♮⌒¶∮…3、编号序号①②③④⑤⑥⑦⑧⑨⑩⑪⑫⑬⑭⑮⑯⑰⑱⑲⑳⓪❶❷❸❹❺❻❼❽❾❿⓫⓬⓭⓮⓯⓰⓱⓲⓳⓴㊀㊁㊂㊃㊄㊅㊆㊇㊈㊉㈠㈡㈢㈣㈤㈥㈦㈧㈨㈩⑴⑵⑶⑷⑸⑹⑺⑻⑼⑽⑾⑿⒀⒁⒂⒃⒄⒅⒆⒇⒈⒉⒊⒋⒌⒍⒎⒏⒐⒑⒒⒓⒔⒕⒖⒗⒘⒙⒚⒛ⅠⅡⅢⅣⅤⅥⅦⅧⅨⅩⅪⅫⅰⅱⅲⅳⅴⅵⅶⅷⅸⅹⒶⒷⒸⒹⒺⒻⒼⒽⒾⒿⓀⓁⓂⓃⓄⓅⓆⓇⓈⓉⓊⓋⓌⓍⓎⓏⓐⓑⓒⓓⓔⓕⓖⓗⓘⓙⓚⓛⓜⓝⓞⓟⓠⓡⓢⓣⓤⓥⓦⓧⓨⓩ⒜⒝⒞⒟⒠⒡⒢⒣⒤⒥⒦⒧⒨⒩⒪⒫⒬⒭⒮⒯⒰⒱⒲⒳⒴⒵4、数学符号﹢﹣×÷±/=≌∽≦≧≒﹤﹥≈≡≠=≤≥<>≮≯∷∶∫∮∝∞∧∨∑∏∪∩∈∵∴⊥∥∠⌒⊙√∟⊿㏒㏑%‰⅟½⅓⅕⅙⅛⅔⅖⅚⅜¾⅗⅝⅞⅘≂≃≄≅≆≇≈≉≊≋≌≍≎≏≐≑≒≓≔≕≖≗≘≙≚≛≜≝≞≟≠≡≢≣≤≥≦≧≨≩⊰⊱⋛⋚∫∬∭∮∯∰∱∲∳%℅‰‱øØπ5、爱心符号♥❣ღ♠♡♤❤❥6、标点符号。,、':∶;?‘’“”〝〞ˆˇ﹕︰﹔﹖﹑•¨….¸;!´?!~—ˉ|‖"〃`@﹫¡¿﹏﹋﹌︴々﹟#﹩$﹠&﹪%*﹡﹢﹦﹤‐ ̄¯―﹨ˆ˜﹍﹎+=<_-\ˇ~﹉﹊()〈〉‹›﹛﹜『』〖〗[]《》〔〕{}「」【】︵︷︿︹︽﹁﹃︻︶︸﹀︺︾ˉ﹂﹄︼❝❞7、单位符号°′″$¥〒¢£%@℃℉﹩﹪‰﹫㎡㏕㎜㎝㎞㏎m³㎎㎏㏄º○¤%$º¹²³8、货币符号€£Ұ₴$₰¢₤¥₳₲₪₵元₣₱฿¤₡₮₭₩ރ円₢₥₫₦zł﷼₠₧₯₨Kčर₹ƒ₸¢9、箭头符号(含推导&转换符号)↑↓←→↖↗↘↙↔↕➻➼➽➸➳➺➻➴➵➶➷➹▶►▷◁◀◄«»➩➪➫➬➭➮➯➱⏎➲➾➔➘➙➚➛➜➝➞➟➠➡➢➣➤➥➦➧➨↚↛↜↝↞↟↠↠↡↢↣↤↤↥↦↧↨⇄⇅⇆⇇⇈⇉⇊⇋⇌⇍⇎⇏⇐⇑⇒⇓⇔⇖⇗⇘⇙⇜↩↪↫↬↭↮↯↰↱↲↳↴↵↶↷↸↹☇☈↼↽↾↿⇀⇁⇂⇃⇞⇟⇠⇡⇢⇣⇤⇥⇦⇧⇨⇩⇪↺↻⇚⇛♐10、符号图案✐✎✏✑✒✍✉✁✂✃✄✆✉☎☏☑✓✔√☐☒✗✘ㄨ✕✖✖☢☠☣✈★☆✡囍㍿☯☰☲☱☴☵☶☳☷☜☞☝✍☚☛☟✌♤♧♡♢♠♣♥♦☀☁☂❄☃♨웃유❖☽☾☪✿♂♀✪✯☭➳卍卐√×■◆●○◐◑✙☺☻❀⚘♔♕♖♗♘♙♚♛♜♝♞♟♧♡♂♀♠♣♥❤☜☞☎☏⊙◎☺☻☼▧▨♨◐◑↔↕▪▒◊◦▣▤▥▦▩◘◈◇♬♪♩♭♪の★☆→あぃ£Ю〓§♤♥▶¤✲❈✿✲❈➹☀☂☁【】┱┲❣✚✪✣✤✥✦❉❥❦❧❃❂❁❀✄☪☣☢☠☭ღ▶▷◀◁☀☁☂☃☄★☆☇☈⊙☊☋☌☍ⓛⓞⓥⓔ╬『』∴☀♫♬♩♭♪☆∷﹌の★◎▶☺☻►◄▧▨♨◐◑↔↕↘▀▄█▌◦☼♪の☆→♧ぃ£❤▒▬♦◊◦♠♣▣۰•❤•۰►◄▧▨♨◐◑↔↕▪▫☼♦⊙●○①⊕◎Θ⊙¤㊣★☆♀◆◇◣◢◥▲▼△▽⊿◤◥✐✌✍✡✓✔✕✖♂♀♥♡☜☞☎☏⊙◎☺☻►◄▧▨♨◐◑↔↕♥♡▪▫☼♦▀▄█▌▐░▒▬♦◊◘◙◦☼♠♣▣▤▥▦▩◘◙◈♫♬♪♩♭♪✄☪☣☢☠♯♩♪♫♬♭♮☎☏☪♈ºº₪¤큐«»™♂✿♥◕‿-。。◕‿◕。11、希腊字母ΑΒΓΔΕΖΗΘΙΚΛΜΝΞΟΠΡΣΤΥΦΧΨΩαβγδεζνξοπρσηθικλμτυφχψω12、俄语字母АБВГДЕЁЖЗИЙКЛМНОПРСТУФХЦЧШЩЪЫЬЭЮЯабвгдеёжзийклмнопрстуфхцчшщъыьэюя13、汉语拼音āáǎàōóǒòēéěèīíǐìūúǔùǖǘǚǜüêɑńňɡㄅㄆㄇㄈㄉㄊㄋㄌㄍㄎㄏㄐㄑㄒㄓㄔㄕㄖㄗㄘㄙㄚㄛㄜㄝㄞㄟㄠㄡㄢㄣㄤㄥㄦㄧㄨㄩ14、中文字符零壹贰叁肆伍陆柒捌玖拾佰仟万亿吉太拍艾分厘毫微卍卐卄巜弍弎弐朤氺曱甴囍兀々〆のぁ〡〢〣〤〥〦〧〨〩㊎㊍㊌㊋㊏㊚㊛㊐㊊㊣㊤㊥㊦㊧㊨㊒㊫㊑㊓㊔㊕㊖㊗㊘㊜㊝㊞㊟㊠㊡㊢㊩㊪㊬㊭㊮㊯㊰㊀㊁㊂㊃㊄㊅㊆㊇㊈㊉15、日文符号ぁあぃいぅうぇえぉおかがきぎくぐけげこごさざしじすずせぜそぞただちぢっつづてでとどなにぬねのはばぱひびぴふぶぷへべぺほぼぽまみむめもゃやゅゆょよらりるれろゎわゐゑをんゔゕゖァアィイゥウェエォオカガキギクグケゲコゴサザシジスズセゼソゾタダチヂッツヅテデトドナニヌネノハバパヒビピフブプヘベペホボポマミムメモャヤュユョヨラリルレロヮワヰヱヲンヴヵヶヷヸヹヺ・ーヽヾヿ゠ㇰㇱㇲㇳㇴㇵㇶㇷㇸㇹㇺㇻㇼㇽㇾㇿ16、制表符号─━│┃╌╍╎╏┄┅┆┇┈┉┊┋┌┍┎┏┐┑┒┓└┕┖┗┘┙┚┛├┝┞┟┠┡┢┣┤┥┦┧┨┩┪┫┬┭┮┯┰┱┲┳┴┵┶┷┸┹┺┻┼┽┾┿╀╁╂╃╄╅╆╇╈╉╊╋╪╫╬═║╒╓╔╕╖╗╘╙╚╛╜╝╞╟╠╡╢╣╤╥╦╧╨╩╳╔╗╝╚╬═╓╩┠┨┯┷┏┓┗┛┳⊥﹃﹄┌╮╭╯╰17、皇冠符号♚♛♝♞♜♟♔♕♗♘♖♟18、彩色表情符号🌹🍀🍎💰📱🌙🍁🍂🍃🌷💎🔪🔫🏀⚽⚡👄👍🔥(1)常用emoji符号一😀😁😂😃😄😅😆😉😊😋😎😍😘😗😙😚☺😇😐😑😶😏😣😥😮😯😪😫😴😌😛😜😝😒😓😔😕😲😷😖😞😟😤😢😭😦😧😨😬😰😱😳😵😡😠😈👿👹👺💀👻👽👦👧👨👩👴👵👶👱👮👲👳👷👸💂🎅👰👼💆💇🙍🙎🙅🙆💁🙋🙇🙌🙏👤👥🚶🏃👯💃👫👬👭💏💑👪💪👈👉☝👆👇✌✋👌👍👎✊👊👋👏👐✍👣👀👂👃👅👄💋👓👔👕👖👗👘👙👚👛👜👝🎒💼👞👟👠👡👢👑👒🎩🎓💄💅💍🌂(2)常用emoji符号二🙈🙉🙊🐵🐒🐶🐕🐩🐺🐱😺😸😹😻😼😽🙀😿😾🐈🐯🐅🐆🐴🐎🐮🐂🐃🐄🐷🐖🐗🐽🐏🐑🐐🐪🐫🐘🐭🐁🐀🐹🐰🐇🐻🐨🐼🐾🐔🐓🐣🐤🐥🐦🐧🐸🐊🐢🐍🐲🐉🐳🐋🐬🐟🐠🐡🐙🐚🐌🐛🐜🐝🐞🦋💐🌸💮🌹🌺🌻🌼🌷🌱🌲🌳🌴🌵🌾🌿🍀🍁🍂🍃🌍🌎🌏🌐🌑🌒🌓🌔🌕🌖🌗🌘🌙🌚🌛🌜☀🌝🌞⭐🌟🌠☁⛅☔⚡❄🔥💧🌊💩🍇🍈🍉🍊🍋🍌🍍🍎🍏🍐🍑🍒🍓🍅🍆🌽🍄🌰🍞🍖🍗🍔🍟🍕🍳🍲🍱🍘🍙🍚🍛🍜🍝🍠🍢🍣🍤🍥🍡🍦🍧🍨🍩🍪🎂🍰🍫🍬🍭🍮🍯🍼☕🍵🍶🍷🍸🍹🍺🍻🍴(3)常用emoji符号三🎪🎭🎨🎰🚣🛀🎫🏆⚽⚾🏀🏈🏉🎾🎱🎳⛳🎣🎽🎿🏂🏄🏇🏊🚴🚵🎯🎮🎲🎷🎸🎺🎻🎬👾🌋🗻🏠🏡🏢🏣🏤🏥🏦🏨🏩🏪🏫🏬🏭🏯🏰💒🗼🗽⛪⛲🌁🌃🌆🌇🌉🌌🎠🎡🎢🚂🚃🚄🚅🚆🚇🚈🚉🚊🚝🚞🚋🚌🚍🚎🚏🚐🚑🚒🚓🚔🚕🚖🚗🚘🚚🚛🚜🚲⛽🚨🚥🚦🚧⚓⛵🚤🚢✈💺🚁🚟🚠🚡🚀🎑🗿🛂🛃🛄🛅💌💎🔪💈🚪🚽🚿🛁⌛⏳⌚⏰🎈🎉🎊🎎🎏🎐🎀🎁📯📻📱📲☎📞📟📠🔋🔌💻💽💾💿📀🎥📺📷📹📼🔍🔎🔬🔭📡💡🔦🏮📔📕📖📗📘📙📚📓📃📜📄📰📑🔖💰💴💵💶💷💸💳✉📧📨📩📤📥📦📫📪📬📭📮✏✒📝📁📂📅📆📇📈📉📊📋📌📍📎📏📐✂🔒🔓🔏🔐🔑🔨🔫🔧🔩🔗💉💊🚬🔮🚩🎌💦💨💣☠♠♥♦♣🀄🎴🔇🔈🔉🔊📢📣💤💢💬💭♨🌀🔔🔕✡✝🔯📛🔰🔱⭕✅☑✔✖❌❎➕➖➗➰➿〽✳✴❇‼⁉❓❔❕❗©®™🎦🔅🔆💯🔠🔡🔢🔣🔤🅰🆎🅱🆑🆒🆓ℹ🆔Ⓜ🆕🆖🅾🆗🅿🆘🆙🆚🈁🈂🈷🈶🈯🉐🈹🈚🈲🉑🈸🈴🈳㊗㊙🈺🈵▪▫◻◼◽◾⬛⬜🔶🔷🔸🔹🔺🔻💠🔲🔳⚪⚫🔴🔵♈♉♊♋♌♍♎♏♐♑♒♓⛎💘❤💓💔💕💖💗💙💚💛💜💝💞💟❣🌿🚧💒☎📟💽⬆↗➡↘⬇↙⬅↖↕↔↩↪⤴⤵🔃🔄🔙🔚🔛🔜🔝🔀🔁🔂▶⏩◀⏪🔼⏫🔽⏬📱📶📳📴♻🏧🚮🚰♿🚹🚺🚻🚼🚾⚠🚸⛔🚫🚳🚭🚯🚱🚷🔞

JAVA自定义注解开发

Java实现自定义注解开发🔗SpringAOP+自定义注解实现日志记录🔗

抖音斜体字生成-网名斜体字

抖音斜体字生成-网名斜体字HTML代码<!DOCTYPEhtml><htmllang="en"><head><metacharset="UTF-8"><metaname="viewport"content="width=device-width,initial-scale=1.0"><title>抖音斜体字</title><style>body{background-color:#7952b3;padding:0px;margin:20px;margin-bottom:10px;}.youname{width:100%;height:37px;border:none;box-shadow:1px1px3px#584d69;border-radius:2px;margin-bottom:20px;margin-top:20px;outline:none;padding-left:10px;box-sizing:border-box;line-height:37px;font-size:16px;}.apptitle{font-size:24px;color:#ffffff;font-weight:bold;text-shadow:2px2px2px#fd2a2a;font-style:italic;}button{padding:.75rem;background-image:linear-gradient(tobottomright,rgba(255,255,255,.2),rgba(255,255,255,.01));box-shadow:00.125rem0.25remrgba(0,0,0,.1);background-color:#dc3545!important;border:none;width:100%;color:#ffffff;border-radius:2px;outline:none;}.result{width:100%;height:80px;border:none;box-shadow:1px1px3px#584d69;border-radius:2px;outline:none;box-sizing:border-box;background-color:#ffffff;margin-bottom:10px;display:flex;justify-content:center;align-items:center;font-weight:bold;font-size:24px;}</style></head><body><divclass="apptitle">抖音斜体字生成</div><divclass="doc"><inputvalue="whq"placeholder="请输入昵称"id="youname"class="youname"><divclass="result"id="result"></div><buttononclick="ok()">点击生成</button></div><script>constbaseText='ABCDEFGHIJKLMNOPQRSTUVWXYZ'constLowerCase=['𝘼','𝘽','𝘾','𝘿','𝙀','𝙁','𝙂','𝙃','𝙄','𝙅','𝙆','𝙇','𝙈','𝙉','𝙊','𝙋','𝙌','𝙍','𝙎','𝙏','𝙐','𝙑','𝙒','𝙓','𝙔','𝙕']constUpperCase=['𝙖','𝙗','𝙘','𝙙','𝙚','𝙛','𝙜','𝙝','𝙞','𝙜','𝙠','𝙡','𝙢','𝙣','𝙤','𝙥','𝙦','𝙧','𝙨','𝙩','𝙪','𝙫','𝙬','𝙨','𝙮','𝙯']functionok(){varinput=document.getElementById('youname')varresult=''for(variofinput.value){if(/[A-Za-z]/.test(i)){varindex=baseText.indexOf(i.toLocaleUpperCase())if(/[a-z]/.test(i)){result+=UpperCase[index]}else{result+=LowerCase[index]}}else{result+=i}}document.getElementById('result').innerText=result}</script></body></html>

2022-IA-GCN: Interactive Graph Convolutional Network for Recommendation阅读笔记

的增加而增加。因此,我们将控制$∀𝑐∈N𝑝$ 上所有相似性的总规模。最后,我们将由𝑔引导的孩子𝑐对𝑝的重要性公式化为:\[𝛼_{𝑝,𝑐}|𝑔=\frac{exp(<e^0_g,e_c>/𝜏)}{\sum_{𝑐'∈N_p}exp(<e^0_g,e_{c′}>/𝜏)}\space\space\space\space\space\space\space\space\space\space\space\space\space(6)\]其中\(𝜏\)是温度参数。等式(6)中的softmax层为确保\(\sum_{𝑐∈N_p}𝛼_{𝑝,�

神经网络

1.1神经网络的前向传播我们首先定义如下图所示的神经网络,为了简单起见,所有的层都不加偏置。其中,X">𝑋X 表示输入层,Zij">𝑍𝑗𝑖Zij 表示第 j">𝑗j 个隐含层的所有神经元,Wj">𝑊𝑗Wj 表示第 j">𝑗j 层的权重。因此:W1=[w111w211w121w221w131w231]&#xFF0C;W2=[w112w212w312w122w222w322]&#xFF0C;W3=[w113,w213]">𝑊1=⎡⎣⎢⎢⎢𝑤111𝑤112𝑤113𝑤121𝑤122𝑤123⎤⎦⎥⎥⎥,𝑊2=[𝑤211𝑤212𝑤221𝑤222𝑤231𝑤232],𝑊3=[𝑤311,𝑤321]W1=[w111w211w121w221w131w231],W2=[w112w212w312w122w222w322],W3=[w113,w213]所以:Z1=[z11z21z31]=[w111w211w121w221w131w231][x1x2]=[z11z21z31]=W1X&#xFF0C;Z2=W2Z1&#xFF0C;yout=W3Z2">𝑍1=⎡⎣⎢⎢⎢𝑧11𝑧12𝑧13⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢𝑤111𝑤112𝑤113𝑤121𝑤122𝑤123⎤⎦⎥⎥⎥[𝑥1𝑥2]=⎡⎣⎢⎢⎢𝑧11𝑧12𝑧13⎤⎦⎥⎥⎥=𝑊1𝑋,𝑍2=𝑊2𝑍1,𝑦𝑜𝑢𝑡=𝑊3𝑍2Z1=[z11z21z31]=[w111w211w121w221w131w231][x1x2]=[z11z21z31]=W1X,Z2=W2Z1,yout=W3Z2最终的 Loss">𝐿𝑜𝑠𝑠Loss 函数可以表示为:Loss=12(yi&#x2212;yout)2">𝐿𝑜𝑠𝑠=12(𝑦𝑖−𝑦𝑜𝑢𝑡)2Loss=12(yi−yout)2在训练过程中,我们要保证 Loss">𝐿𝑜𝑠𝑠Loss 越小越好,因此采用梯度下降的方法来求解网络的参数 W=[w111,w211,...,w213]">𝑊=[𝑤111,𝑤121,...,𝑤321]W=[w111,w211,...,w213],于是就需要求解 Loss">𝐿𝑜𝑠𝑠Loss 对所有参数的偏导数 &#x2207;L(w)=[&#x2202;L(w)&#x2202;w111,&#x2202;L(w)&#x2202;w121,...&#x2202;L(w)&#x2202;w213]T">∇𝐿(𝑤)=[∂𝐿(𝑤)∂𝑤111,∂𝐿(𝑤)∂𝑤112,...∂𝐿(𝑤)∂𝑤321]𝑇∇L(w)=[∂L(w)∂w111,∂L(w)∂w121,...∂L(w)∂w213]T,于是权重更新公式可以写为:Wk+1=Wk&#x2212;&#x03B1;&#x2207;L(w)">𝑊𝑘+1=𝑊𝑘−𝛼∇𝐿(𝑤)Wk+1=Wk−α∇L(w)1.2神经网络的反向求导在上一节中,我们大致对神经网络的梯度更新有了了解,其中最核心的部分就是求出损失函数对权重 wijl">𝑤𝑙𝑖𝑗wijl 的导数。由于网上大多数资料都是生搬硬套,因此我们以计算 W1">𝑊1W1 的导数为例,对整个反向求导过程进行细致的剖析。如下图所示:其中,wjkl">𝑤𝑙𝑗𝑘wjkl 表示从第 l">𝑙l 层的第 j">𝑗j 个节点到第 l+1">𝑙+1l+1 层中的第 k">𝑘k 个节点的权重,根据前向传播的计算我们可以得到:yout&#x223C;(w113w112+w213w122)w111x1,&#x2202;yout&#x2202;w111=(w113w112+w213w122)x1;yout&#x223C;(w113w112+w213w122)w211x2,&#x2202;yout&#x2202;w211=(w113w112+w213w122)x2yout&#x223C;(w113w212+w213w222)w121x1,&#x2202;yout&#x2202;w121=(w113w212+w213w222)x1;yout&#x223C;(w113w212+w213w222)w221x1,&#x2202;yout&#x2202;w221=(w113w212+w213w222)x2yout&#x223C;(w113w312+w213w322)w131x1,&#x2202;yout&#x2202;w131=(w113w312+w213w322)x1;yout&#x223C;(w113w312+w213w322)w231x2,&#x2202;yout&#x2202;w231=(w113w312+w213w322)x2">𝑦𝑜𝑢𝑡∼(𝑤311𝑤211+𝑤3

RandomStringUtils 生成随机字符串

randomGraph(32));对应输出:PxszorswiThGgdUjzcRTP3YHh1TltdrKnlWFVnmtXjoNJpuOyEESjxIInScYcOIO75751119690962135718497019074450Lu,w4C/T57nf%CUt+%5>+pQ:5nt&zaIuuf8ffuut-u-u-8t-tuut8t-fut8tt8u᩹酋䮷氿𦄺엚𨎨䬢𪓐𬊱𨀡墓𩬀𣽯릾貄쉝𡝪𧕅𣫩𩺁hSR{/1>3<0bAT>64402@YK8s8Vm~G!3]!#`L_U>L$cwN{C.>Rp}5gpb(S/ghffTe

HSCTF WP ——Lun4R

。。a=input()b=input()c=input()d=input()e=input()f=input()g=input()h=input()i=input()j=input()k=input()l=input()E=input()if(b!=E):l=l-aif(b!=f):c=hb=b-ej=j+gif(e!=j):A=dc=c-8d=EE=Ab=b+hb=b-da=a+1c=c+4d=d+2#if(d!=f):if(e!=j):e=e+jl=l+1k=k-8h=h+if=f-gif(k!=4):g=g+ii=i+8a=a-ce=e-lc=c+ch=h-lif(k!=0):j=j-

Controller中输出中文乱码

Controller中输出中文乱码输出的代码如下System.out.println("上传文件名:"+uploadFileName);System.out.println("上传文件保存地址:"+realPath);未做修改时:ϴļ:.batϴļַD:\idea\springMVC\springMVC...1.点击Help-EditCustomVMoptions1.1在文件最后一行输入-Dfile.encoding=UTF-82.在tomcat配置里的VMoption输入框里输入-Dfile.encoding=UTF-8修改后:上传文件名:

关于bootstrap

bootstrap优势在于页面的响应式。PS:附上bootstrap的官方文档地址👇👇👇https://v3.bootcss.com/css/#forms

2021 年万圣节 Github 彩蛋

🎃🎃🎃记录每年Github万圣节彩蛋,也记录有来项目成长历程。2021万圣节彩蛋2020万圣节彩蛋

1 2 3 4 5 6 7 8 9 10 下一页