pyspark.pandas.Series.dot¶
-
係列。
點
( 其他:聯盟(係列,pyspark.pandas.frame.DataFrame] )→聯盟(整數、浮點數、保齡球、str字節,小數。十進製、datetime。日期,日期時間。datetime,沒有,pyspark.pandas.series.Series]¶ -
計算的點積係列和其他的列。
該方法計算的點積係列和另一個,或DataFrame係列和每一列。
它也可以被使用自我@其他在Python中> = 3.5。
請注意
這個API略不同於前兩個係列的熊貓當索引不一致和配置的計算。eager_check”是錯誤的。熊貓引發一個異常;然而,pandas-on-Spark收益和執行與南嬌寵地忽略不匹配。
> > >pdf1=pd。係列([1,2,3),指數=(0,1,2])> > >pdf2=pd。係列([1,2,3),指數=(0,1,3])> > >pdf1。點(pdf2)…ValueError:矩陣不一致
> > >psdf1=ps。係列([1,2,3),指數=(0,1,2])> > >psdf2=ps。係列([1,2,3),指數=(0,1,3])> > >與ps。option_context(“compute.eager_check”,假):…psdf1。點(psdf2)…5
- 參數
-
- 其他 係列,DataFrame。
-
其他對象來計算列的點積。
- 返回
-
- 標量,係列
-
返回係列和其他如果其他的點積是一個係列,這個係列的點積係列和其他每一行如果其他DataFrame。
筆記
係列和其他必須共享相同的索引,如果其他一係列或DataFrame。
例子
> > >年代=ps。係列([0,1,2,3])
> > >年代。點(年代)14
> > >年代@年代14
> > >psdf=ps。DataFrame({“x”:(0,1,2,3),“y”:(0,- - - - - -1,- - - - - -2,- - - - - -3]})> > >psdfx y0 0 01 1 12 2 23 3 3
> > >與ps。option_context(“compute.ops_on_diff_frames”,真正的):…年代。點(psdf)…x 14y -14dtype: int64