关于概率:浅谈在理论上倍投是不是一定赚

本文旨在通过简略的数学和计算机模仿,解释为何在赌博中倍投毫无意义。 (如果你感觉在某处看过此文章,没必要诧异,那很可能也是我写的,只不过被我转移到了这边) 倍投法(马丁格尔策略,Martingale Strategy)是一种赌博策略,该策略的核心思想是在每次输钱之后减少下一次赌注,以冀望在博得一局后可能补救之前的损失,从而实现盈利。它基于一种假如,即输钱的次数越多,最终赢回来的可能性就越大。倍投只存在于实践中,只有在赌资、赌注、工夫有限的状况下有意义,三个因素只有有一个不满足就是无意义的,显然,事实世界中这三个条件中任意一个都不能被满足。赌博是反直觉的,倍投也是反直觉的,倍投其实并不会让你赚更多,然而同样的,也不会让你亏更多。你的赢钱冀望一开始就决定了,所以不须要说什么倍投必死,试试反倍投,任何稀奇古怪的策略都是无意义的。 倍投法存在两个心理骗局,让你感觉这个办法如同可行。 概率很大,然而冀望依然是负的单纯的概率是没有意义的,赌博是为了赢钱,必须加上收益冀望才有意义。 拿抛硬币为例,胜率1/2,玩6轮,从1开始投注。学过小学数学的人会晓得,连输6场的概率是1/64,也就是1.5625%。在倍投法中,只有赢一次就能取得收益,因而取得收益的概率为1-1/64,约为98.4375%。看上去是稳赚的,然而这没有意义,因为冀望依然是非负数。 在下面这个简略例子中,如果你赢了一次就跑,你有1/64的几率输掉63元,而后有63/64的几率赚1元。计算冀望为1x63/64-63x1/64,后果为0元。 如果你赢了不停,持续下注1元,后果雷同。这个也是反直觉的,并不会像赌客所想的那样赢更多,也不会像普通人那样见好不收会亏更多。公式证实有点麻烦,出于篇幅问题,借用一张图片,把规模放大到3轮,这是轮盘赌红蓝球用倍投法的排列组合。把最左边的冀望加起来,其实还是0。 冀望为0是50%胜率的偏心赌局,事实中赌场的概率都是小于50%的,冀望必然为正数。倍投相比均注,会让你从等概率的不赚不赔,变成大概率小赚,小概率大赔。其实还是一样的。除了节省时间以外没有什么意义。 然而在齐全现实的环境下,倍投法的确是必赢的,因为你的赌资、工夫和下注下限都是正无穷,赢的概率就是必然100%。然而只有条件不是有限,间接把下面的例子等比放大一亿倍也是同样的冀望。 黑天鹅其实很常见倍投基于一个假如,连输的概率很低,然而只有赢一次就能翻本。因而在交替输赢的场面下,倍投能够有较稳固的收益,直到遇到连输才会爆仓离场。然而连输的概率在多轮赌局后,就会十分大。这个很反直觉,然而的确是这样的。比方在下面的抛硬币赌局里,6场里连输6场概率是1.5625%,这个很容易计算出来。然而如果持续玩上来,玩10场、100场、200场呢?通过程序计算排列组合以及随机模仿,能够得出以下后果。代码在最初边。 为了让后果更有趣味性,我还加了记录模仿过程中呈现过的最大连输数,这个最大连输次数次要和模仿次数无关。因为计算排列组合的工夫复杂度是按指数减少的,超过20局以上就会耗时十分长,因而后续没有列出。 胜率为0.50,10000000次数模仿中,每6次赌局中均匀至多呈现一次连输6次产生概率:1.56%,呈现过的最屡次连输:6次胜率为0.5,通过排列组合, 每6次赌局中均匀至多呈现一次连输6次产生概率:1/64,1.56%胜率为0.50,10000000次数模仿中,每10次赌局中均匀至多呈现一次连输6次产生概率:4.68%,呈现过的最屡次连输:10次胜率为0.5,通过排列组合, 每10次赌局中均匀至多呈现一次连输6次产生概率:48/1024,4.69%胜率为0.50,10000000次数模仿中,每50次赌局中均匀至多呈现一次连输6次产生概率:31.41%,呈现过的最屡次连输:28次胜率为0.50,10000000次数模仿中,每100次赌局中均匀至多呈现一次连输6次产生概率:54.47%,呈现过的最屡次连输:29次胜率为0.50,10000000次数模仿中,每200次赌局中均匀至多呈现一次连输6次产生概率:79.93%,呈现过的最屡次连输:31次胜率为0.50,10000000次数模仿中,每1000次赌局中均匀至多呈现一次连输6次产生概率:99.97%,呈现过的最屡次连输:32次其实这个也是赌徒舛误的一种,“怎么可能连输10把呢?“,上得山多终遇虎,实际上这很容易,只有玩1000盘,连输10把的概率就曾经是38%了,玩2000盘就是62%。只有你玩得够多,那什么都能碰上。而且赌局实质上是毫无分割齐全随机的,一年每个月玩100把和一天玩1200把并没有本质区别。 总结显然,赌博中应用倍投的冀望只取决于赌局胜率,也就是说倍投并不能扭转任何冀望。 不过有些问题依然萦绕不去。在较短期的赌局中,领有较大的赌资和较小的赌注,的确能够使得胜率十分高,即便此时冀望依然为非负数。比方下面的例子,有98.4375%的几率赢1元,仅有1.5625%的几率输掉63元。总体胜率如此之高,这很让人蛊惑,如何压服我不应用倍投? 在某种程度上,这的确呈现出一种悖论,其中冀望为非负数是事实,而总体胜率却异样高。这种状况令人容易受到短期内高胜率的吸引。因而,很多网站提到的“在短期内,应用倍投法以小博大是有意义的”也有其正当之处。不过依据下面的计算咱们晓得,这个悖论不会继续太久,只有工夫久一点,黑天鹅就很容易遇见。 代码以下是模仿的python代码,你能够通过批改结尾那几个为大写的变量来扭转模仿目标。其中排列组合计算耗时极长,无奈在失常工夫内算出20局以上的后果,慎用,能够通过正文最初两行来勾销排列组合计算。 # -*-coding:utf-8-*-import randomfrom typing import Tuple# 批改上面的变量能够调整模仿的目标SIM_ROUNDS = 100000 # 模仿次数LOSING_STREAK_NUM = 6 # 连输次数BET_ROUNDS = 10 # 赌局次数P = 0.5 # 赌局胜率###def permuting_betting(bet_rounds: int, losing_streak_num: int) -> Tuple[int, int]: """ 通过排列组合计算一系列赌局中呈现至多连输特定次数的几率,赌局胜率固定为50%,耗时极长 Args: bet_rounds (int): 赌局次数。 losing_streak_num (int): 连输次数。 Returns: Tuple[int, int]: 至多特定次数连输的排列数;总排列组合数。这两个值的比值为几率。 """ reach_losing_streak_times = 0 for curr_bet in range(0, 1 << bet_rounds): losing_streak_count = 1 prev_lowbit = 0 while curr_bet != 0: curr_lowbit = curr_bet & -curr_bet losing_streak_count = losing_streak_count+1 if curr_lowbit==prev_lowbit <<1 else 1 if losing_streak_count >= losing_streak_num: reach_losing_streak_times += 1 break prev_lowbit = curr_lowbit curr_bet &= curr_bet-1 return reach_losing_streak_times, 2**bet_roundsdef simulate_betting(sim_rounds: int, bet_rounds: int, p: float, losing_streak_num: int): """ 通过模拟计算一系列赌局中呈现至多连输特定次数的几率,赌局胜率可调,耗时失常 Args: sim_rounds (int): 模仿次数,影响精度、耗时、以及最大连输次数。 bet_rounds (int): 赌局次数。 p (float): 赌局胜率。 losing_streak_num (int): 连输次数。 Returns: Tuple[float, int]: 至多连输特定次数的几率;最大连输次数。 """ def simulate_betting_helper(bet_rounds: int, p: float, losing_streak_num: int) -> Tuple[bool, int]: losing_streak_count = 0 max_losing_streak = 0 reach_losing_streak_num = False for _ in range(bet_rounds): win = random.random() < p losing_streak_count = losing_streak_count+1 if not win else 0 max_losing_streak = max(max_losing_streak, losing_streak_count) reach_losing_streak_num = losing_streak_count >= losing_streak_num or reach_losing_streak_num return reach_losing_streak_num, max_losing_streak avg_freq_reach_losing_streak = 0.0 max_losing_streak = 0 reached_times = 0 for _ in range(sim_rounds): reached, curr_max_losing_streak = simulate_betting_helper( bet_rounds, p, losing_streak_num) reached_times += 1 if reached else 0 max_losing_streak = max(curr_max_losing_streak, max_losing_streak) avg_freq_reach_losing_streak = reached_times/SIM_ROUNDS return avg_freq_reach_losing_streak, max_losing_streakif __name__ == '__main__': avg_freq_reach_losing_streak, max_losing_streak = simulate_betting( SIM_ROUNDS, BET_ROUNDS, P, LOSING_STREAK_NUM) print(f"胜率为{P},{SIM_ROUNDS}次数模仿中, \n每{BET_ROUNDS}次赌局中均匀至多呈现一次连输{LOSING_STREAK_NUM}次产生概率:{avg_freq_reach_losing_streak*100:.2f}% \n呈现过的最屡次连输:{max_losing_streak}次") #计算排列组合,耗时极长 reached_times, all_permutations = permuting_betting( BET_ROUNDS, LOSING_STREAK_NUM) print( f"胜率为0.5,通过排列组合, \n每{BET_ROUNDS}次赌局中均匀至多呈现一次连输{LOSING_STREAK_NUM}次产生概率:{reached_times}/{all_permutations},{reached_times/all_permutations*100:.2f}%")

August 27, 2023 · 2 min · jiezi

关于概率:转盘-抽奖-概率中奖项计算

//key:奖项key,value:中奖的概率占比或者份数$array = ['key1' => 20, 'key2' => 40, 'key3' => 30, 'key5' => 10];//return:返回中奖的key$fun = function ($array) { asort($array);//概率大小排序,调配区间,0-10-20-30-40; $randNum = mt_rand(1, array_sum($array));//随机数 //print_r($randNum . PHP_EOL); //区间判断 $start = 0; foreach ($array as $key => $item) { //结构区间数:0-10-20-30-40; $start += $item; //print_r('start:' . $start . ' key:' . $key . PHP_EOL); if ($randNum <= $start) { return $key; } }};var_dump($fun($array));

September 21, 2022 · 1 min · jiezi

关于概率:概率统计

抽样散布总体:是指钻研对象的整个群体。样本:是从总体中选取的一部分,用于代表总体的整体状况。样本数量:又叫样本空间,是示意有多少个样本。样本大小:及样本的容量,示意每个样本里有多少个数据。抽样散布:将样本平均值可视化,叫做抽样散布。样本均值:一个样本中所有数据的平均值,\(\overline{x}\)。总体均值:要钻研的总体中所有数据的平均值,\( \mu \)。抽样办法简略随机抽样: 随机选取一个大小为n的样本,所有大小为n的可能样本被抽取的可能性雷同,包含反复抽样和不反复抽样,具体形式有抽签或应用随机编号生成器。分层抽样:将总体分为几个单位类似的层,层与层之间尽可能不一样,分好层后对每一层进行简略随机抽样。整群抽样:将总体划分为几个群,其中每个群都尽量与其余群类似,可通过简略随机抽样抽取几个群,而后用抽取的群造成样本。系统抽样:选取一个数字K,而后每到第K个数据时就抽样一次。核心极限定理在适当的条件下,大量互相独立随机变量的均值经适当标准化后依散布收敛于规范正态分布。这组定理是数理统计学和误差剖析的实践根底,指出了大量随机变量之和近似遵从正态分布的条件。 如何用样本来预计总体均值参数利用核心极限定理咱们能够用样本预计出总体的平均值,样本均值约等于总体均值。

April 27, 2022 · 1 min · jiezi

关于概率:泊松分布二项分布有什么联系

泊松散布是二项分布的极限散布,因而在二项分布中n很大p很小的时候能够近似应用泊松散布进行进行计算和近似,简化计算量。

August 6, 2021 · 1 min · jiezi

读书笔记概率论与数理统计下

作者:LogM 本文原载于 https://segmentfault.com/u/logm/articles,不允许转载~ 文章中的数学公式若无法正确显示,请参见:正确显示数学公式的小技巧 本文为概率论与数理统计的笔记。 11. 第十一周11.1 总体,样本11.2 常用统计量 样本均值:$\overline{X} = \frac{1}{n} \sum_{i=1}^{n} X_i$样本方差:$S^2 = \frac{1}{n-1} \sum_{i=1}{n}(X_i - \overline X)^2$样本 $k$ 阶矩:$A_k = \frac{1}{n} \sum_{i=1}^{n} X_i^k$样本 $k$ 阶中心矩:$B_k = \frac{1}{n} \sum_{i=1}^{n} (X_i-\overline X)^k$11.3 抽样分布 正态分布$\chi^2$ 分布(卡方分布) 定义:n个服从标准正态分布 $N(0,1)$ 的随机变量相互独立,则称 $\chi^2 = \sum_{i=1}^{n} X_i^2$ 服从自由度为 $n$ 的 $\chi^2$ 分布,记为$\chi^2 \sim \chi^2(n)$概率密度:$f_n(x) = \left \{\begin{matrix} \frac{2}{2\Gamma(n/2)}(\frac{n}{2})^{\frac{n}{2}-1}e^{-\frac{x}{2}} & ,x>0 \\ 0 & ,x \leq 0 \end {matrix} \right.$,其中 $\Gamma(\alpha) = \int_{0}^{+\infty} x^{\alpha-1}e^{-x}dx$性质: ...

June 13, 2019 · 2 min · jiezi

读书笔记概率论与数理统计中

作者:LogM 本文原载于 https://segmentfault.com/u/logm/articles,不允许转载~ 文章中的数学公式若无法正确显示,请参见:正确显示数学公式的小技巧 本文为概率论与数理统计的笔记。 8. 第八周8.1 期望 离散型:$E(X) = \sum_{k=1}^{+\infty} x_k p_k$连续型:$E(X) = \int_{-\infty}^{+\infty} xf(x)dx$若 $Y = g(X)$,则: 离散型:$E(Y) = E(g(X)) = \sum_{k=1}^{+\infty} g(x_k)p_k$连续型:$E(Y) = E(g(X)) = \int_{-\infty}^{+\infty} g(x_k)p_k$若 $Z = h(X,Y)$,则 二元离散型:$E(Z) = E(h(X,Y)) = \sum_{k=1}^{+\infty} h(x_i,y_j)p(x_i,y_j)$二元连续型:$E(Z) = E(h(X,Y)) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} h(x,y)f(x,y)dxdy$性质: $E(cX) = cE(X)$,$c$ 为常数$E(X+Y) = E(X) + E(Y)$$E(XY) = E(X)E(Y)$,当 $X$ 与 $Y$ 相互独立8.2 方差 方差:$D(X) = Var(X) = E\{[X-E(X)]^2\}$标准差(均方差):$\sigma(X) = \sqrt{D(X)}$离散型:$D(X) = \sum_{i=1}^{+\infty} [x_i - E(X)]^2 p_i$连续型:$D(X) = \int_{-\infty}^{+\infty} [x-E(x)]^2 f(x)dx$性质: ...

June 13, 2019 · 1 min · jiezi

读书笔记概率论与数理统计上

作者:LogM 本文原载于 https://segmentfault.com/u/logm/articles,不允许转载~ 文章中的数学公式若无法正确显示,请参见:正确显示数学公式的小技巧 本文为概率论与数理统计的笔记。 1. 第一周1.1 样本空间随机试验的所有可能$S = \{e\}$1.2 事件和事件:$A \cup B$积事件:$A \cap B$、$AB$差事件:$A-B$对立事件:$\overline{A}$1.3 常用公式$\overline{A} \cap \overline{B} = \overline{A \cup B}$、$\overline{A} \cup \overline{B} = \overline{A \cup B}$$P(A\overline{B}) = P(A-B) = P(A)-P(AB)$加法公式:$P(A \cup B) = P(A) + P(B) - P(AB)$、$P(A \cup B \cup C) = P(A) + P(B) + P(C) - P(AB) - P(BC) - P(AC) + P(ABC)$2. 第二周2.1 古典概型(等可能概型)抽球问题:N个球,其中a个白球,b个黄球,不放回抽n次,球恰好k个白球概率 $$ P = \frac{C_a^k \cdot C_b^{n-k}}{C_{a+b}^n} $$ ...

June 13, 2019 · 3 min · jiezi

经典的掷骰子问题, 不想试一下嘛?

话不多说!看题吧同时掷两颗骰子,问两个骰子点数之和为5的结果在点数之和为7的结果之前出现的概率是多少?这道题用到了值得学习的技巧(巧妙的设事件)!记:(请一定耐心看完!)$$\begin{aligned}& 事件{\color{Green} A} \ 为 两个骰子点数之和为5的结果在点数之和为7的结果之前出现的事件\& 事件{\color{Blue} E_{n}} \ 为 前(n-1)次和为5, 和为7都不发生, 而第n次出现和为5点的事件\&易知:{\color{Green} A} = \bigcup_{n=1}^{\infty }{\color{Blue} E_{n}}\end{aligned}$$易知:$$概率 {\color{Red} P_{1}(每次掷骰子和为5)} = \frac{4}{36} = \frac{1}{9}\概率 {\color{Red} P_{2}(每次掷骰子和为7)} = \frac{6}{36} = \frac{1}{6}$$则:$$\begin{aligned}{\color{Blue} E_{n}} &= (1-\color{Red}P_{1}-\color{Red}P_{2})^{n-1}\ * \ \color{Red}P_{1} \&= (1-\frac{4}{36}-\frac{6}{36})^{n-1}\ *\ \frac{4}{36} \&= \frac{1}{9} \ * \ (\frac{13}{18})^{n-1}\\{\color{Green} A} &= \sum_{n=1}^{\infty }{\color{Blue} E_{n}}\&= \sum_{n=1}^{\infty }\frac{1}{9} \ * \ (\frac{13}{18})^{n-1}\&= \frac{2}{5}\end{aligned}$$所以:$$概率是\frac{2}{5}$$是不是很巧妙呢??顺便给出某度的答案:https://www.zybang.com/questi…

March 6, 2019 · 1 min · jiezi

ApacheCN 翻译活动进度公告 2019.2.18

【主页】 apachecn.org【Github】@ApacheCN暂时下线: 社区暂时下线: cwiki 知识库自媒体平台微博:@ApacheCN知乎:@ApacheCNCSDN简书OSChina博客园我们不是 Apache 的官方组织/机构/团体,只是 Apache 技术栈(以及 AI)的爱好者!合作or侵权,请联系【fonttian】<fonttian@gmail.com> | 请抄送一份到 <apachecn@163.com>PyTorch 1.0 中文文档和教程教程部分:认领:36/37,翻译:28/37;文档部分:认领:29/39,翻译:15/39参与方式:https://github.com/apachecn/p…整体进度:https://github.com/apachecn/p…项目仓库:https://github.com/apachecn/p…章节贡献者进度教程部分–Deep Learning with PyTorch: A 60 Minute Blitz@bat67100%What is PyTorch?@bat67100%Autograd: Automatic Differentiation@bat67100%Neural Networks@bat67100%Training a Classifier@bat67100%Optional: Data Parallelism@bat67100%Data Loading and Processing Tutorial@yportne13100%Learning PyTorch with Examples@bat67100%Transfer Learning Tutorial@jiangzhonglian100%Deploying a Seq2Seq Model with the Hybrid Frontend@cangyunye100%Saving and Loading Models@sfyumi What is <cite>torch.nn</cite> really?@lhc741 Finetuning Torchvision Models@ZHHAYO100%Spatial Transformer Networks Tutorial@PEGASUS1993100%Neural Transfer Using PyTorch@bdqfork100%Adversarial Example Generation@cangyunye100%Transfering a Model from PyTorch to Caffe2 and Mobile using ONNX@PEGASUS1993100%Chatbot Tutorial@a625687551100%Generating Names with a Character-Level RNN@hhxx2015100%Classifying Names with a Character-Level RNN@hhxx2015100%Deep Learning for NLP with Pytorch@BreezeHavana Introduction to PyTorch@guobaoyo100%Deep Learning with PyTorch@bdqfork100%Word Embeddings: Encoding Lexical Semantics@sight007100%Sequence Models and Long-Short Term Memory Networks@ETCartman100%Advanced: Making Dynamic Decisions and the Bi-LSTM CRF@JohnJiangLA Translation with a Sequence to Sequence Network and Attention@mengfu188100%DCGAN Tutorial@wangshuai9517 Reinforcement Learning (DQN) Tutorial@BreezeHavana Creating Extensions Using numpy and scipy@cangyunye100%Custom C++ and CUDA Extensions@Lotayou Extending TorchScript with Custom C++ Operators Writing Distributed Applications with PyTorch@firdameng PyTorch 1.0 Distributed Trainer with Amazon AWS@yportne13100%ONNX Live Tutorial@PEGASUS1993100%Loading a PyTorch Model in C++@talengu100%Using the PyTorch C++ Frontend@solerji100%文档部分–Autograd mechanics@PEGASUS1993100%Broadcasting semantics@PEGASUS1993100%CUDA semantics@jiangzhonglian100%Extending PyTorch@PEGASUS1993 Frequently Asked Questions@PEGASUS1993 Multiprocessing best practices@cvley100%Reproducibility@WyattHuang1 Serialization semantics@yuange250100%Windows FAQ@PEGASUS1993 torch@ZHHAYO torch.Tensor@hijkzzz100%Tensor Attributes@yuange250100%Type Info@PEGASUS1993100%torch.sparse@hijkzzz100%torch.cuda@bdqfork100%torch.Storage@yuange250100%torch.nn@yuange250 torch.nn.functional@hijkzzz100%torch.nn.init@GeneZC100%torch.optim@qiaokuoyuan Automatic differentiation package - torch.autograd@gfjiangly Distributed communication package - torch.distributed Probability distributions - torch.distributions@hijkzzz Torch Script Multiprocessing package - torch.multiprocessing@hijkzzz100%torch.utils.bottleneck torch.utils.checkpoint torch.utils.cpp_extension torch.utils.data torch.utils.dlpack torch.hub torch.utils.model_zoo torch.onnx@guobaoyo100%Distributed communication package (deprecated) - torch.distributed.deprecated torchvision Reference@BXuan694 torchvision.datasets@BXuan694 torchvision.models@BXuan694 torchvision.transforms@BXuan694 torchvision.utils@BXuan694 HBase 3.0 中文参考指南认领:2/31,翻译:0/31参与方式:https://github.com/apachecn/h…整体进度:https://github.com/apachecn/h…项目仓库:https://github.com/apachecn/h…章节译者进度Preface Getting Started Apache HBase Configuration Upgrading The Apache HBase Shell Data Model HBase and Schema Design@RaymondCode RegionServer Sizing Rules of Thumb HBase and MapReduce Securing Apache HBase Architecture In-memory Compaction Backup and Restore Synchronous Replication Apache HBase APIs Apache HBase External APIs Thrift API and Filter Language HBase and Spark@TsingJyujing Apache HBase Coprocessors Apache HBase Performance Tuning Troubleshooting and Debugging Apache HBase Apache HBase Case Studies Apache HBase Operational Management Building and Developing Apache HBase Unit Testing HBase Applications Protobuf in HBase Procedure Framework (Pv2): HBASE-12439 AMv2 Description for Devs ZooKeeper Community Appendix Airflow 中文文档认领:23/30,翻译:23/30。参与方式:https://github.com/apachecn/a…整体进度:https://github.com/apachecn/a…项目仓库:https://github.com/apachecn/a…章节贡献者进度1 项目 2 协议-100%3 快速开始@ImPerat0R_100%4 安装@Thinking Chen100%5 教程@ImPerat0R_100%6 操作指南@ImPerat0R_100%7 设置配置选项@ImPerat0R_100%8 初始化数据库后端@ImPerat0R_100%9 使用操作器@ImPerat0R_100%10 管理连接@ImPerat0R_100%11 保护连接@ImPerat0R_100%12 写日志@ImPerat0R_100%13 使用Celery扩大规模@ImPerat0R_100%14 使用Dask扩展@ImPerat0R_100%15 使用Mesos扩展(社区贡献)@ImPerat0R_100%16 使用systemd运行Airflow@ImPerat0R_100%17 使用upstart运行Airflow@ImPerat0R_100%18 使用测试模式配置@ImPerat0R_100%19 UI /截图@ImPerat0R_100%20 概念@ImPerat0R_100%21 数据分析@ImPerat0R_100%22 命令行接口@ImPerat0R_100%23 调度和触发器@Ray100%24 插件@ImPerat0R_100%25 安全 26 时区 27 实验性 Rest API@ImPerat0R_100%28 集成 29 Lineage 30 常见问题 31 API 参考 UCB CS61b Java 中的数据结构认领:0/12,翻译:0/12参与方式:https://github.com/apachecn/c…整体进度:https://github.com/apachecn/c…项目仓库:https://github.com/apachecn/c…标题译者进度一、算法复杂度 二、抽象数据类型 三、满足规范 四、序列和它们的实现 五、树 六、搜索树 七、哈希 八、排序和选择 九、平衡搜索 十、并发和同步 十一、伪随机序列 十二、图 UCB Prob140 面向数据科学的概率论认领:23/25,翻译:17/25参与方式:https://github.com/apachecn/p…整体进度:https://github.com/apachecn/p…项目仓库:https://github.com/apachecn/p…标题译者翻译进度一、基础飞龙100%二、计算几率飞龙100%三、随机变量飞龙100%四、事件之间的关系@biubiubiuboomboomboom100%五、事件集合@PEGASUS1993>0%六、随机计数@viviwong100%七、泊松化@YAOYI626100%八、期望@PEGASUS199350%九、条件(续)@YAOYI626100%十、马尔科夫链喵十八100%十一、马尔科夫链(续)喵十八100%十二、标准差缺只萨摩 100%十三、方差和协方差缺只萨摩 100%十四、中心极限定理喵十八100%十五、连续分布@ThunderboltSmile十六、变换十七、联合密度@Winchester-Yi100%十八、正态和 Gamma 族@Winchester-Yi100%十九、和的分布平淡的天100%二十、估计方法平淡的天100%二十一、Beta 和二项@lvzhetx100%二十二、预测@lvzhetx50%二十三、联合正态随机变量二十四、简单线性回归@ThomasCai100%二十五、多元回归@lanhaixuan100%翻译征集要求:机器学习/数据科学相关或者编程相关原文必须在互联网上开放不能只提供 PDF 格式(我们实在不想把精力都花在排版上)请先搜索有没有人翻译过请回复本文。赞助我们 ...

February 18, 2019 · 2 min · jiezi