临汾山东漯河饰品美体美文
投稿投诉
美文创意
爱情通信
用品婚姻
爱好看病
美体软件
影音星座
瑜伽周边
星座办公
饰品塑形
搞笑减肥
幼儿两性
智家潮品
漯河衢州
兴义眉山
桂林阳泉
玉溪简阳
山东遂宁
永城新余
梧州洛阳
泸州温州
临汾清远
营口常熟
浙江大连
桐乡宜昌

损失函数权威指南Pytorch

4月8日 话藏心投稿
  神经网络可以执行许多不同的任务。无论是分类数据,如将动物图片分组为猫和狗;或回归任务,如预测月收入,还是其他任何事情。每个任务都有不同的输出,需要不同类型的损失函数。
  配置损失函数的方式可以成就或破坏算法的性能。通过正确配置损失函数,可以确保模型按你希望的方式工作。
  对我们来说幸运的是,可以使用损失函数来充分利用机器学习任务。
  在本文中,我们将讨论PyTorch中流行的损失函数,以及构建自定义损失函数。阅读完本文后,就知道为项目选择哪一个损失函数了。1、什么是损失函数?
  在进入PyTorch细节之前,让我们回顾一下什么是损失函数。
  损失函数用于衡量预测输出与提供的目标值之间的误差。损失函数告诉我们算法模型离实现预期结果还有多远。损失一词是指模型因未能产生预期结果而受到的惩罚。
  例如,损失函数(我们称之为J)可以采用以下两个参数:预测输出(ypred)目标值(y)
  此函数通过将预测输出与预期输出进行比较来确定模型的性能。如果ypred和y的偏差很大,loss值会很高。
  如果偏差很小或值几乎相同,它会输出一个非常低的损失值。因此,当模型在提供的数据集上训练时,你需要使用可以适当惩罚模型的损失函数。
  损失函数会根据你的算法试图解决的问题陈述而变化。2、如何添加PyTorch损失函数?
  PyTorch的torch。nn模块有多个标准损失函数,可以在你的项目中使用。
  要添加它们,需要先导入库:importtorchimporttorch。nnasnn
  接下来,定义要使用的损失类型。以下是定义平均绝对误差损失函数的方法:lossnn。L1Loss()
  添加函数后,可以使用它来完成你的特定任务。3、PyTorch中有哪些损失函数可用?
  从广义上讲,PyTorch中的损失函数分为两大类:回归损失和分类损失。
  当模型预测连续值(例如人的年龄)时,会使用回归损失函数。
  当模型预测离散值时使用分类损失函数,例如电子邮件是否为垃圾邮件。
  当模型预测输入之间的相对距离时使用排名损失函数,例如根据产品在电子商务搜索页面上的相关性对产品进行排名。
  现在我们将探索PyTorch中不同类型的损失函数,以及如何使用它们:平均绝对误差损失均方误差损失负对数似然损失交叉熵损失铰链嵌入损失边际排名损失三元组边际损失KullbackLeibler散度3。1PyTorch平均绝对误差(L1损失函数)torch。nn。L1Loss
  平均绝对误差(MAE),也称为L1损失,计算实际值和预测值之间的绝对差之和的平均值。
  它检查一组预测值中误差的大小,而不关心它们的正方向或负方向。如果不使用误差的绝对值,则负值可以抵消正值。
  PytorchL1Loss表示为:
  x代表实际值,y代表预测值。
  什么时候可以用L1损失?
  回归问题,特别是当目标变量的分布有异常值时,例如与平均值相差很大的小值或大值。它被认为对异常值更稳健。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)maelossnn。L1Loss()outputmaeloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。2423,2。0117,0。0648,0。0672,0。1567〕,〔0。2198,1。4090,1。3972,0。7907,1。0242〕,〔0。6674,0。2657,0。9298,1。0873,1。6587〕〕,requiresgradTrue)target:tensor(〔〔0。7271,0。6048,1。7069,1。5939,0。1023〕,〔0。7733,0。7241,0。3062,0。9830,0。4515〕,〔0。4787,1。3675,0。7110,2。0257,0。9578〕〕)output:tensor(1。2850,gradfnL1LossBackward)3。2PyTorch均方误差损失函数torch。nn。MSELoss
  均方误差(MSE),也称为L2损失,计算实际值和预测值之间的平方差的平均值。
  无论实际值和预测值的符号如何,PytorchMSELoss始终输出正结果。为了提高模型的准确性,你应该尝试减少L2Loss一个完美的值是0。0。
  平方意味着较大的错误比较小的错误产生更大的错误。如果分类器偏离100,则错误为10,000。如果偏离0。1,则误差为0。01。这会惩罚犯大错误的模型并鼓励小错误。
  PytorchL2Loss表示为:
  x代表实际值,y代表预测值。
  什么时候可以用?MSE是大多数Pytorch回归问题的默认损失函数。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)mselossnn。MSELoss()outputmseloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)3。3PyTorch负对数似然损失函数torch。nn。NLLLoss
  负对数似然损失函数(NLL)仅适用于以softmax函数作为输出激活层的模型。Softmax是指计算层中每个单元的归一化指数函数的激活函数。
  Softmax函数表示为:
  该函数采用大小为N的输入向量,然后修改值,使每个值都落在0和1之间。此外,它对输出进行归一化,使向量的N个值之和等于1。
  NLL使用否定含义,因为概率(或可能性)在0和1之间变化,并且此范围内值的对数为负。最后,损失值变为正值。
  在NLL中,最小化损失函数有助于我们获得更好的输出。从近似最大似然估计(MLE)中检索负对数似然。这意味着我们尝试最大化模型的对数似然,并因此最小化NLL。
  在NLL中,模型因做出正确预测的概率较小而受到惩罚,并因预测概率较高而受到鼓励。对数执行惩罚。
  NLL不仅关心预测是否正确,还关心模型对高分预测的确定性。
  PytorchNLLLoss表示为:
  其中x是输入,y是目标,w是权重,N是批量大小。
  什么时候可以用?多类分类问题
  示例如下:importtorchimporttorch。nnasnnsizeofinput(NxC)is3x5inputtorch。randn(3,5,requiresgradTrue)everyelementintargetshouldhave0valueCtargettorch。tensor(〔1,0,4〕)mnn。LogSoftmax(dim1)nlllossnn。NLLLoss()outputnllloss(m(input),target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔1。6430,1。1819,0。8667,0。5352,0。2585〕,〔0。8617,0。1880,0。3865,0。7368,0。5482〕,〔0。9189,0。1265,1。1291,0。0155,2。6702〕〕,requiresgradTrue)target:tensor(〔1,0,4〕)output:tensor(2。9472,gradfnNllLossBackward)3。4PyTorch交叉熵损失函数torch。nn。CrossEntropyLoss
  此损失函数针对提供的一组事件或随机变量计算两个概率分布之间的差异。
  它用于计算出一个分数,该分数总结了预测值和实际值之间的平均差异。为了提高模型的准确性,你应该尝试最小化分数交叉熵分数介于0和1之间,完美值为0。
  其他损失函数,如平方损失,惩罚不正确的预测。交叉熵会因为非常自信和错误而受到很大惩罚。
  与不根据预测置信度进行惩罚的负对数似然损失不同,交叉熵惩罚不正确但置信度高的预测,以及正确但置信度较低的预测。
  交叉熵函数有多种变体,其中最常见的类型是二元交叉熵(BCE)。BCELoss主要用于二元分类模型;也就是说,模型只有2个类。
  Pytorch交叉熵损失表示为:
  其中x是输入,y是目标,w是权重,C是类数,N跨越小批量维度。
  什么时候可以用?二元分类任务,它是Pytorch中的默认损失函数。创建有信心的模型预测将是准确的,而且概率更高。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。empty(3,dtypetorch。long)。random(5)crossentropylossnn。CrossEntropyLoss()outputcrossentropyloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。1639,1。2095,0。0496,1。1746,0。9474〕,〔1。0429,1。3255,1。2967,0。2183,0。3562〕,〔0。1680,0。2891,1。9272,2。2542,0。1844〕〕,requiresgradTrue)target:tensor(〔4,0,3〕)output:tensor(1。0393,gradfnNllLossBackward)3。5PyTorch铰链嵌入损失函数torch。nn。HingeEmbeddingLoss
  HingeEmbeddingLoss用于计算输入张量x和标签张量y时的损失。目标值介于{1,1}之间,这使其适用于二元分类任务。
  使用HingeLoss函数,只要实际类别值和预测类别值之间的符号存在差异,就可以给出更多错误。这激励示例具有正确的符号。
  HingeEmbeddingLoss表示为:
  什么时候可以用?分类问题,尤其是在确定两个输入是不同还是相似时。学习非线性嵌入或半监督学习任务。
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(3,5,requiresgradTrue)targettorch。randn(3,5)hingelossnn。HingeEmbeddingLoss()outputhingeloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔0。1054,0。4323,0。0156,0。8425,0。1335〕,〔1。0882,0。9221,1。9434,1。8930,1。9206〕,〔1。5480,1。9243,0。8666,0。1467,1。8022〕〕,requiresgradTrue)target:tensor(〔〔1。0748,0。1622,0。4852,0。7273,0。4342〕,〔1。0646,0。7334,1。9260,0。6870,1。5155〕,〔0。3828,0。4476,0。3003,0。6489,2。7488〕〕)output:tensor(1。2183,gradfnMeanBackward0)3。6PyTorch边际排名损失函数torch。nn。MarginRankingLoss
  MarginRankingLoss计算一个标准来预测输入之间的相对距离。这不同于其他损失函数,例如MSE或交叉熵,它们学习直接从一组给定的输入进行预测。
  使用MarginRankingLoss,你可以计算损失,前提是有输入x1、x2以及标签张量y(包含1或1)。
  当y1时,第一个输入将被假定为较大的值。它将比第二个输入排名更高。如果y1,则第二个输入的排名更高。
  PytorchMarginRankingLoss表示为:
  什么时候可以用?排名问题
  示例如下:importtorchimporttorch。nnasnninputonetorch。randn(3,requiresgradTrue)inputtwotorch。randn(3,requiresgradTrue)targettorch。randn(3)。sign()rankinglossnn。MarginRankingLoss()outputrankingloss(inputone,inputtwo,target)output。backward()print(inputone:,inputone)print(inputtwo:,inputtwo)print(target:,target)print(output:,output)OUTPUTinputone:tensor(〔1。7669,0。5297,1。6898〕,requiresgradTrue)inputtwo:tensor(〔0。1008,0。2517,0。1402〕,requiresgradTrue)target:tensor(〔1。,1。,1。〕)output:tensor(1。3324,gradfnMeanBackward0)3。7PyTorchTripletMargin损失函数torch。nn。TripletMarginLoss
  TripletMarginLoss计算衡量模型中三重态损失的标准。使用此损失函数,你可以计算损失,前提是输入张量x1、x2、x3以及值大于零的边距。
  三元组由a(锚点)、p(正例)和n(负例)组成。
  PytorchTripletMarginLoss表示为:
  什么时候可以用?确定样本之间存在的相对相似性。用于基于内容的检索问题
  示例如下:importtorchimporttorch。nnasnnanchortorch。randn(100,128,requiresgradTrue)positivetorch。randn(100,128,requiresgradTrue)negativetorch。randn(100,128,requiresgradTrue)tripletmarginlossnn。TripletMarginLoss(margin1。0,p2)outputtripletmarginloss(anchor,positive,negative)output。backward()print(anchor:,anchor)print(positive:,positive)print(negative:,negative)print(output:,output)OUTPUTanchor:tensor(〔〔0。6152,0。2224,2。2029,。。。,0。6894,0。1641,1。7254〕,〔1。3034,1。0999,0。1705,。。。,0。4506,0。2095,0。8019〕,〔0。1638,0。2643,1。5279,。。。,0。3873,0。9648,0。2975〕,。。。,〔1。5240,0。4353,0。3575,。。。,0。3086,0。8936,1。7542〕,〔1。8443,2。0940,0。1264,。。。,0。6701,1。7227,0。6539〕,〔3。3725,0。4695,0。2689,。。。,2。6315,1。3222,0。9542〕〕,requiresgradTrue)positive:tensor(〔〔0。4267,0。1484,0。9081,。。。,0。3615,0。6648,0。3271〕,〔0。0404,1。2644,1。0385,。。。,0。1272,0。8937,1。9377〕,〔1。2159,0。7165,0。0301,。。。,0。3568,0。9472,0。0750〕,。。。,〔0。2893,1。7894,0。0040,。。。,2。0052,3。3667,0。5894〕,〔1。5308,0。5288,0。5351,。。。,0。8661,0。9393,0。5939〕,〔0。0709,0。4492,0。9036,。。。,0。2101,0。8306,0。6935〕〕,requiresgradTrue)negative:tensor(〔〔1。8089,1。3162,1。7045,。。。,1。7220,1。6008,0。5585〕,〔0。4567,0。3363,1。2184,。。。,2。3124,0。7193,0。2762〕,〔0。8471,0。7779,0。1627,。。。,0。8704,1。4201,1。2366〕,。。。,〔1。9165,1。7768,1。9975,。。。,0。2091,0。7073,2。4570〕,〔1。7506,0。4662,0。9482,。。。,0。0916,0。2020,0。5102〕,〔0。7463,1。9737,1。3279,。。。,0。1629,0。3693,0。6008〕〕,requiresgradTrue)output:tensor(1。0755,gradfnMeanBackward0)3。8PyTorchKullbackLeibler散度损失函数torch。nn。KLDivLoss
  KullbackLeibler散度,缩写为KL散度,计算两个概率分布之间的差异。
  使用此损失函数,你可以计算在预测概率分布用于估计预期目标概率分布的情况下丢失的信息量(以位表示)。
  它的输出告诉你两个概率分布的接近程度。如果预测的概率分布与真实的概率分布相差甚远,就会导致很大的损失。如果KLDivergence的值为零,则意味着概率分布相同。
  KL散度的行为就像交叉熵损失,它们在处理预测概率和实际概率的方式上存在关键差异。CrossEntropy根据预测的置信度对模型进行惩罚,而KLDivergence则不会。KL散度仅评估概率分布预测与地面实况分布有何不同。
  KLDivergenceLoss表示为:
  x代表真实标签的概率,y代表预测标签的概率。
  什么时候可以用?逼近复杂函数多类分类任务如果你想确保预测的分布与训练数据的分布相似
  示例如下:importtorchimporttorch。nnasnninputtorch。randn(2,3,requiresgradTrue)targettorch。randn(2,3)kllossnn。KLDivLoss(reductionbatchmean)outputklloss(input,target)output。backward()print(input:,input)print(target:,target)print(output:,output)OUTPUTinput:tensor(〔〔1。4676,1。5014,1。5201〕,〔1。8420,0。8228,0。3931〕〕,requiresgradTrue)target:tensor(〔〔0。0300,1。7714,0。8712〕,〔1。7118,0。9312,1。9843〕〕)output:tensor(0。8774,gradfn)4、如何在PyTorch中创建自定义损失函数?
  PyTorch允许你创建自己的自定义损失函数以在项目中实施。
  下面介绍如何创建自己的简单交叉熵损失函数。
  一种方法是创建自定义损失函数作为python函数:defmyCustomLoss(myoutputs,mylabels):specifyingthebatchsizemybatchsizemyoutputs。size()〔0〕calculatingthelogofsoftmaxvaluesmyoutputsF。logsoftmax(myoutputs,dim1)selectingthevaluesthatcorrespondtolabelsmyoutputsmyoutputs〔range(mybatchsize),mylabels〕returningtheresultsreturntorch。sum(myoutputs)numberexamples
  还可以创建其他高级PyTorch自定义损失函数。
  另一种方法是使用类定义创建自定义损失函数
  让我们修改计算两个样本之间相似度的Dice系数,作为二元分类问题的损失函数:classDiceLoss(nn。Module):definit(self,weightNone,sizeaverageTrue):super(DiceLoss,self)。init()defforward(self,inputs,targets,smooth1):inputsF。sigmoid(inputs)inputsinputs。view(1)targetstargets。view(1)intersection(inputstargets)。sum()dice(2。intersectionsmooth)(inputs。sum()targets。sum()smooth)return1dice5、如何监控PyTorch损失函数?
  很明显,在训练模型时,需要关注损失函数值以跟踪模型的性能。随着损失值不断减小,模型不断变好。我们可以通过多种方式做到这一点。让我们来看看它们。
  为此,我们将训练一个在PyTorch中创建的简单神经网络,它将对著名的Iris数据集进行分类。
  进行获取数据集所需的导入。fromsklearn。datasetsimportloadirisfromsklearn。modelselectionimporttraintestsplitfromsklearn。preprocessingimportStandardScaler
  加载数据集:irisloadiris()Xiris〔data〕yiris〔target〕namesiris〔targetnames〕featurenamesiris〔featurenames〕
  将数据集缩放为均值0和方差1,可以快速收敛模型。scalerStandardScaler()Xscaledscaler。fittransform(X)
  以8020的比例将数据集拆分为训练集和测试集。Xtrain,Xtest,ytrain,ytesttraintestsplit(Xscaled,y,testsize0。2,randomstate2)
  为我们的神经网络及其训练进行必要的导入。importtorchimporttorch。nn。functionalasFimporttorch。nnasnnimportmatplotlib。pyplotaspltimportnumpyasnpplt。style。use(ggplot)
  定义网络:classPyTorchNN(nn。Module):definit(self,inputdim,outputdim):super(PyTorchNN,self)。init()self。inputlayernn。Linear(inputdim,128)self。hiddenlayernn。Linear(128,64)self。outputlayernn。Linear(64,outputdim)defforward(self,x):xF。relu(self。inputlayer(x))xF。relu(self。hiddenlayer(x))xF。softmax(self。outputlayer(x),dim1)returnx
  定义用于获得准确性和训练网络的函数。defgetaccuracy(predarr,originalarr):predarrpredarr。detach()。numpy()originalarroriginalarr。numpy()finalpred〔〕foriinrange(len(predarr)):finalpred。append(np。argmax(predarr〔i〕))finalprednp。array(finalpred)count0foriinrange(len(originalarr)):iffinalpred〔i〕originalarr〔i〕:count1returncountlen(finalpred)100deftrainnetwork(model,optimizer,criterion,Xtrain,ytrain,Xtest,ytest,numepochs):trainloss〔〕trainaccuracy〔〕testaccuracy〔〕forepochinrange(numepochs):forwardfeedoutputtrainmodel(Xtrain)trainaccuracy。append(getaccuracy(outputtrain,ytrain))calculatethelosslosscriterion(outputtrain,ytrain)trainloss。append(loss。item())clearoutthegradientsfromthelaststeploss。backward()optimizer。zerograd()backwardpropagation:calculategradientsloss。backward()updatetheweightsoptimizer。step()withtorch。nograd():outputtestmodel(Xtest)testaccuracy。append(getaccuracy(outputtest,ytest))if(epoch1)50:print(fEpoch{epoch1}{numepochs},TrainLoss:{loss。item():。4f},TrainAccuracy:{sum(trainaccuracy)len(trainaccuracy):。2f},TestAccuracy:{sum(testaccuracy)len(testaccuracy):。2f})returntrainloss,trainaccuracy,testaccuracy
  创建模型、优化器和损失函数对象。inputdim4outputdim3learningrate0。01modelPyTorchNN(inputdim,outputdim)criterionnn。CrossEntropyLoss()optimizertorch。optim。Adam(model。parameters(),lrlearningrate)6、在notebook中监控PyTorchloss
  现在你一定已经注意到trainnetwork函数中的打印语句来监控损失和准确性。这是一种方法。Xtraintorch。FloatTensor(Xtrain)Xtesttorch。FloatTensor(Xtest)ytraintorch。LongTensor(ytrain)ytesttorch。LongTensor(ytest)trainloss,trainaccuracy,testaccuracytrainnetwork(modelmodel,optimizeroptimizer,criterioncriterion,XtrainXtrain,ytrainytrain,XtestXtest,ytestytest,numepochs100)
  我们得到这样的输出。
  如果需要,我们还可以使用Matplotlib绘制这些值:fig,(ax1,ax2,ax3)plt。subplots(3,figsize(12,6),sharexTrue)ax1。plot(trainaccuracy)ax1。setylabel(trainingaccuracy)ax2。plot(trainloss)ax2。setylabel(trainingloss)ax3。plot(testaccuracy)ax3。setylabel(testaccuracy)ax3。setxlabel(epochs)
  我们会看到这样的图表,表明损失和准确性之间的相关性。
  这种方法还不错,可以完成工作。但我们必须记住,我们的问题陈述和模型越复杂,它需要的监控技术就越复杂。7、使用Neptune监控PyTorch损失
  一种更简单的监控指标的方法是将其记录在一个地方,使用Neptune之类的服务,并专注于更重要的任务,例如构建和训练模型。
  为此,我们只需要执行几个小步骤。
  首先,让我们安装所需的东西。pipinstallneptuneclient
  现在让我们初始化Neptune运行。importneptune。newasneptunerunneptune。init(projectcommonpytorchintegration,apitokenANONYMOUS,sourcefiles〔。py〕)
  我们还可以分配配置变量,例如:run〔configmodel〕type(model)。namerun〔configcriterion〕type(criterion)。namerun〔configoptimizer〕type(optimizer)。name
  这是它在UI中的样子。
  最后,我们可以通过在trainnetwork函数中添加几行来记录我们的损失。注意运行相关的行。deftrainnetwork(model,optimizer,criterion,Xtrain,ytrain,Xtest,ytest,numepochs):trainloss〔〕trainaccuracy〔〕testaccuracy〔〕forepochinrange(numepochs):forwardfeedoutputtrainmodel(Xtrain)accgetaccuracy(outputtrain,ytrain)trainaccuracy。append(acc)run〔trainingepochaccuracy〕。log(acc)calculatethelosslosscriterion(outputtrain,ytrain)run〔trainingepochloss〕。log(loss)trainloss。append(loss。item())clearoutthegradientsfromthelaststeploss。backward()optimizer。zerograd()backwardpropagation:calculategradientsloss。backward()updatetheweightsoptimizer。step()withtorch。nograd():outputtestmodel(Xtest)testaccgetaccuracy(outputtest,ytest)testaccuracy。append(testacc)run〔testepochaccuracy〕。log(testacc)if(epoch1)50:print(fEpoch{epoch1}{numepochs},TrainLoss:{loss。item():。4f},TrainAccuracy:{sum(trainaccuracy)len(trainaccuracy):。2f},TestAccuracy:{sum(testaccuracy)len(testaccuracy):。2f})returntrainloss,trainaccuracy,testaccuracy
  这是我们在仪表板中得到的。绝对无缝。
  可以在此处的NeptuneUI中查看此运行。不用说,你可以用任何损失函数来做到这一点。8、结束语
  我们介绍了PyTorch中最常见的损失函数。你可以选择适合自己项目的任何函数,或创建自己的自定义函数。
  希望本文能作为你在机器学习任务中使用PyTorch损失函数的快速入门指南。
  如果想更深入地了解该主题或了解其他损失函数,可以访问PyTorch官方文档。
  原文链接:http:www。bimant。combloglossfunctionultimateguide
投诉 评论

营口旅游住哪里?这5家温泉度假酒店一定不要错过,建议收藏这个秋季我来到了辽宁营口市,作为东北地区最早开埠的城市,这里曾一度影响着全世界,加之古老的文明史,让这座城市散发着独特的光芒。当然,如今的营口也是一座非常休闲的旅游城市,……你的包裹到了吗?多地正加紧处理积压邮件快递转载自微信公众号央视网此前,一些地区受疫情影响,快递收发存在困难,部分消费者在下单后出现短期内难以及时收到商品现象。对此,多地邮政管理……离职!大举套现!刚刚,两巨头闪崩中国基金报安曼天选打工人们,新的一周开始了从周末的整体情况来看,我们正处于放开后,疫情冲击的第一波,基金君身边的药店、医院等,感冒药、N95口罩等都成了紧俏物资。……特斯拉降价后门店半小时售出10台,车主提车两月损失4万特斯拉又降价了。1月6日,特斯拉中国官宣热门车型Model3、ModelY全系再次降价,降幅2万元4。8万元不等。这一次中国官网所有在售特斯拉车型,都迎来了历史最低价。一……一游客进入峨眉山未开放区域迷路,景区连夜搜救在悬崖边将其找到搜救人员连夜搜救迷路游客我迷路了!1月7日晚7时许,四川峨眉山景区报国寺管理处突然接到了一个求助电话,一名来自成都的游客唐先生在雷音寺到纯阳殿的山路上迷失了方向。当晚,一……恶作剧之吻湘琴原型38岁去世,他们的爱情,并不是想象的样子尽管播出许多年,江直树与袁湘琴的爱情依旧是大家最羡慕的样子,尤其是以结婚怀孕作为结局,更是给大家创造了很大的想象空间。相信不少人认为,在另一个平行时空,直树与湘琴一定过着……库里官宣好消息!湖人公布新决定,哈登搭档要回归,鹈鹕要捡大漏不知道大家发现没有,本赛季NBA整体格局很混乱,没有哪支球队展现出绝对的统治力。这就很有意思了,也就是说豪强们都有机会去冲冠。这样的联盟才是大家想要看到的,而不是某一支球队独大……阿根廷队夺冠!喵速达兑现承诺给双11购买电视的阿根廷球迷免单燕赵都市报纵览新闻记者李春炜2:2战平,3:3再次追平,加时赛点球大战最终定格比分为7:5!北京时间12月19日凌晨,梅西领衔的阿根廷队在2022卡塔尔世界杯决赛中……去东湖绿道看夕阳12月17日,阳光明媚,许多市民游客到武汉东湖绿道或散步,或骑行,或跑步,或晒太阳,享受沿途美景。特别是夕阳西下时,磨山下的绿道上聚集了众多观赏夕阳的游人,他们把自己打扮得很精……不要用未来否定现在未来是将来时,现在是进行时。今天的我犯了一个错误。我因为不确定以后要不要查验健康码,而懈怠了今天在岗时查验健康码的工作。这就是用未来否定了现在。不要用未来否定现在,……科学家解析出系外行星大气全貌据美国有线电视新闻网网站11月24日报道,科学家说,系外行星热土星的新数据改变游戏规则。詹姆斯韦布空间望远镜捕捉到了一颗遥远行星大气的详细分子和化学特征,这对系外行星科学……损失函数权威指南Pytorch神经网络可以执行许多不同的任务。无论是分类数据,如将动物图片分组为猫和狗;或回归任务,如预测月收入,还是其他任何事情。每个任务都有不同的输出,需要不同类型的损失函数。配置……
治疗前列腺增生,中医常用的三大方法,摆脱各种原因出现的尿不畅小徽章玩出大学问!方寸之间凝结冬奥时光世界杯离奇庆祝!美女撩上衣,非洲人街头打砸烧,千米国旗抢风头公司起名应注意哪些?诺基亚新N73渲染图效仿苹果被咬一口,冲击高端与iPhone加速向大兆瓦迭代,全国首个6MW以上陆上风电项目全部并网新能源汽车产业全国一盘棋,西上海全国布局潜力巨大iPad10耐用性测试惨遭一掰两半!质量堪忧足球报若申花真降级了,对中国职业足球来说无疑是灾难性事件智墨晨读6月6日突发!无限期离队!他要去联手东契奇了?渐行渐远,心淡淡,就这样吧欧洲足坛变天,俄罗斯队直接被FIFA开除,网友就差俄罗斯方块《邯郸淳汉世老人》主要内容简介及赏析行政强制执行体制是什么?2019年女生最好听的微信名关于宇宙大爆炸的一些疑问天玑8100手机跌至1659元,8GB运存5080mAH,曾四年级语文教师家长会发言稿新课改下课堂教学方法与手段的功效研究摸了年方向盘才知晓车子有个部位一月要清这7个原则,让你活出生命的意义,不做思维的囚徒癌症老人赴美被遣:数天之内经历扣押和两次跨洲飞行食猴鹰的天敌是谁食猴鹰到底害怕什么动物

友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找