hyb
2026-01-09 4cb426cb3ae31e772a09d4ade5b2f0242aaeefa0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
Ë
nñúhjãó—dZddlmZddlZddlmZddlmZmZddl    m
Z
Gd„de «Z Gd    „d
e «Z Gd „d e«ZGd „de «ZGd„de«ZGd„de «ZGd„de«ZGd„de «ZGd„de«ZGd„de «ZGd„de«ZGd„de«ZGd„d e «ZGd!„d"e«ZGd#„d$e«ZGd%„d&e«ZGd'„d(e «Z Gd)„d*e«Z!Gd+„d,e«Z"d-Z#d.Z$d/Z%d0Z&d1„Z'Gd2„d3e(«Z)Gd4„d5e(«Z*Gd6„d7e«Z+Gd8„d9e,«Z-Gd:„d;e-«Z.Gd<„d=e/«Z0Gd>„d?e«Z1Gd@„dAe«Z2GdB„dCe«Z3GdD„dEe«Z4GdF„dGe5«Z6GdH„dIe«Z7GdJ„dKe«Z8GdL„dMe«Z9GdN„dOe«Z:GdP„dQe«Z;GdR„dSe«Z<GdT„dUe«Z=gdV¢Z>y)Wz%
Expose public exceptions & warnings
é)Ú annotationsN)Ú OptionError)ÚOutOfBoundsDatetimeÚOutOfBoundsTimedelta)ÚInvalidVersioncó—eZdZdZy)ÚIntCastingNaNErrora1
    Exception raised when converting (``astype``) an array with NaN to an integer type.
 
    Examples
    --------
    >>> pd.DataFrame(np.array([[1, np.nan], [2, 3]]), dtype="i8")
    Traceback (most recent call last):
    IntCastingNaNError: Cannot convert non-finite values (NA or inf) to integer
    N©Ú__name__Ú
__module__Ú __qualname__Ú__doc__©óúIH:\Change_password\venv_build\Lib\site-packages\pandas/errors/__init__.pyr    r    ó„òrr    có—eZdZdZy)ÚNullFrequencyErrorao
    Exception raised when a ``freq`` cannot be null.
 
    Particularly ``DatetimeIndex.shift``, ``TimedeltaIndex.shift``,
    ``PeriodIndex.shift``.
 
    Examples
    --------
    >>> df = pd.DatetimeIndex(["2011-01-01 10:00", "2011-01-01"], freq=None)
    >>> df.shift(2)
    Traceback (most recent call last):
    NullFrequencyError: Cannot shift with no freq
    Nr
rrrrró„ò rrcó—eZdZdZy)ÚPerformanceWarningaT
    Warning raised when there is a possible performance impact.
 
    Examples
    --------
    >>> df = pd.DataFrame({"jim": [0, 0, 1, 1],
    ...                    "joe": ["x", "x", "z", "y"],
    ...                    "jolie": [1, 2, 3, 4]})
    >>> df = df.set_index(["jim", "joe"])
    >>> df
              jolie
    jim  joe
    0    x    1
         x    2
    1    z    3
         y    4
    >>> df.loc[(1, 'z')]  # doctest: +SKIP
    # PerformanceWarning: indexing past lexsort depth may impact performance.
    df.loc[(1, 'z')]
              jolie
    jim  joe
    1    z        3
    Nr
rrrrr.s„òrrcó—eZdZdZy)ÚUnsupportedFunctionCalla
    Exception raised when attempting to call a unsupported numpy function.
 
    For example, ``np.cumsum(groupby_object)``.
 
    Examples
    --------
    >>> df = pd.DataFrame({"A": [0, 0, 1, 1],
    ...                    "B": ["x", "x", "z", "y"],
    ...                    "C": [1, 2, 3, 4]}
    ...                   )
    >>> np.cumsum(df.groupby(["A"]))
    Traceback (most recent call last):
    UnsupportedFunctionCall: numpy operations are not valid with groupby.
    Use .groupby(...).cumsum() instead
    Nr
rrrrrHó„òrrcó—eZdZdZy)ÚUnsortedIndexErrora§
    Error raised when slicing a MultiIndex which has not been lexsorted.
 
    Subclass of `KeyError`.
 
    Examples
    --------
    >>> df = pd.DataFrame({"cat": [0, 0, 1, 1],
    ...                    "color": ["white", "white", "brown", "black"],
    ...                    "lives": [4, 4, 3, 7]},
    ...                   )
    >>> df = df.set_index(["cat", "color"])
    >>> df
                lives
    cat  color
    0    white    4
         white    4
    1    brown    3
         black    7
    >>> df.loc[(0, "black"):(1, "white")]
    Traceback (most recent call last):
    UnsortedIndexError: 'Key length (2) was greater
    than MultiIndex lexsort depth (1)'
    Nr
rrrrr[s„òrrcó—eZdZdZy)Ú ParserErroraÎ
    Exception that is raised by an error encountered in parsing file contents.
 
    This is a generic error raised for errors encountered when functions like
    `read_csv` or `read_html` are parsing contents of a file.
 
    See Also
    --------
    read_csv : Read CSV (comma-separated) file into a DataFrame.
    read_html : Read HTML table into a DataFrame.
 
    Examples
    --------
    >>> data = '''a,b,c
    ... cat,foo,bar
    ... dog,foo,"baz'''
    >>> from io import StringIO
    >>> pd.read_csv(StringIO(data), skipfooter=1, engine='python')
    Traceback (most recent call last):
    ParserError: ',' expected after '"'. Error could possibly be due
    to parsing errors in the skipped footer rows
    Nr
rrrrrvs„òrrcó—eZdZdZy)Ú DtypeWarninga
    Warning raised when reading different dtypes in a column from a file.
 
    Raised for a dtype incompatibility. This can happen whenever `read_csv`
    or `read_table` encounter non-uniform dtypes in a column(s) of a given
    CSV file.
 
    See Also
    --------
    read_csv : Read CSV (comma-separated) file into a DataFrame.
    read_table : Read general delimited file into a DataFrame.
 
    Notes
    -----
    This warning is issued when dealing with larger files because the dtype
    checking happens per chunk read.
 
    Despite the warning, the CSV file is read with mixed types in a single
    column which will be an object type. See the examples below to better
    understand this issue.
 
    Examples
    --------
    This example creates and reads a large CSV file with a column that contains
    `int` and `str`.
 
    >>> df = pd.DataFrame({'a': (['1'] * 100000 + ['X'] * 100000 +
    ...                          ['1'] * 100000),
    ...                    'b': ['b'] * 300000})  # doctest: +SKIP
    >>> df.to_csv('test.csv', index=False)  # doctest: +SKIP
    >>> df2 = pd.read_csv('test.csv')  # doctest: +SKIP
    ... # DtypeWarning: Columns (0) have mixed types
 
    Important to notice that ``df2`` will contain both `str` and `int` for the
    same input, '1'.
 
    >>> df2.iloc[262140, 0]  # doctest: +SKIP
    '1'
    >>> type(df2.iloc[262140, 0])  # doctest: +SKIP
    <class 'str'>
    >>> df2.iloc[262150, 0]  # doctest: +SKIP
    1
    >>> type(df2.iloc[262150, 0])  # doctest: +SKIP
    <class 'int'>
 
    One way to solve this issue is using the `dtype` parameter in the
    `read_csv` and `read_table` functions to explicit the conversion:
 
    >>> df2 = pd.read_csv('test.csv', sep=',', dtype={'a': str})  # doctest: +SKIP
 
    No warning was issued.
    Nr
rrrr r s„ò3rr có—eZdZdZy)ÚEmptyDataErrora!
    Exception raised in ``pd.read_csv`` when empty data or header is encountered.
 
    Examples
    --------
    >>> from io import StringIO
    >>> empty = StringIO()
    >>> pd.read_csv(empty)
    Traceback (most recent call last):
    EmptyDataError: No columns to parse from file
    Nr
rrrr"r"Æó„ò
rr"có—eZdZdZy)Ú ParserWarninga9
    Warning raised when reading a file that doesn't use the default 'c' parser.
 
    Raised by `pd.read_csv` and `pd.read_table` when it is necessary to change
    parsers, generally from the default 'c' parser to 'python'.
 
    It happens due to a lack of support or functionality for parsing a
    particular attribute of a CSV file with the requested engine.
 
    Currently, 'c' unsupported options include the following parameters:
 
    1. `sep` other than a single character (e.g. regex separators)
    2. `skipfooter` higher than 0
    3. `sep=None` with `delim_whitespace=False`
 
    The warning can be avoided by adding `engine='python'` as a parameter in
    `pd.read_csv` and `pd.read_table` methods.
 
    See Also
    --------
    pd.read_csv : Read CSV (comma-separated) file into DataFrame.
    pd.read_table : Read general delimited file into DataFrame.
 
    Examples
    --------
    Using a `sep` in `pd.read_csv` other than a single character:
 
    >>> import io
    >>> csv = '''a;b;c
    ...           1;1,8
    ...           1;2,1'''
    >>> df = pd.read_csv(io.StringIO(csv), sep='[;,]')  # doctest: +SKIP
    ... # ParserWarning: Falling back to the 'python' engine...
 
    Adding `engine='python'` to `pd.read_csv` removes the Warning:
 
    >>> df = pd.read_csv(io.StringIO(csv), sep='[;,]', engine='python')
    Nr
rrrr%r%Ôs„ò%rr%có—eZdZdZy)Ú
MergeErrora~
    Exception raised when merging data.
 
    Subclass of ``ValueError``.
 
    Examples
    --------
    >>> left = pd.DataFrame({"a": ["a", "b", "b", "d"],
    ...                     "b": ["cat", "dog", "weasel", "horse"]},
    ...                     index=range(4))
    >>> right = pd.DataFrame({"a": ["a", "b", "c", "d"],
    ...                      "c": ["meow", "bark", "chirp", "nay"]},
    ...                      index=range(4)).set_index("a")
    >>> left.join(right, on="a", validate="one_to_one",)
    Traceback (most recent call last):
    MergeError: Merge keys are not unique in left dataset; not a one-to-one merge
    Nr
rrrr'r'ýó„òrr'có"—eZdZdZddd„Zdd„Zy)ÚAbstractMethodErroraš
    Raise this error instead of NotImplementedError for abstract methods.
 
    Examples
    --------
    >>> class Foo:
    ...     @classmethod
    ...     def classmethod(cls):
    ...         raise pd.errors.AbstractMethodError(cls, methodtype="classmethod")
    ...     def method(self):
    ...         raise pd.errors.AbstractMethodError(self)
    >>> test = Foo.classmethod()
    Traceback (most recent call last):
    AbstractMethodError: This classmethod must be defined in the concrete class Foo
 
    >>> test2 = Foo().method()
    Traceback (most recent call last):
    AbstractMethodError: This classmethod must be defined in the concrete class Foo
    cóT—hd£}||vrtd|›d|›d«‚||_||_y)N>ÚmethodÚpropertyÚ classmethodÚ staticmethodzmethodtype must be one of z, got z     instead.)Ú
ValueErrorÚ
methodtypeÚclass_instance)Úselfr2r1Útypess    rÚ__init__zAbstractMethodError.__init__&s?€ÚEˆØ ˜UÑ "ÜØ,¨Z¨L¸¸u¸gÀYÐOóð ð%ˆŒØ,ˆÕrcó°—|jdk(r|jj}nt|j«j}d|j›d|›S)Nr.zThis z' must be defined in the concrete class )r1r2r Útype)r3Únames  rÚ__str__zAbstractMethodError.__str__/sN€Ø ?‰?˜mÒ +Ø×&Ñ&×/Ñ/‰Dä˜×+Ñ+Ó,×5Ñ5ˆDؐt—‘Ð'Ð'NÈtÈfÐUÐUrN)r,)r1ÚstrÚreturnÚNone)r;r:)r r r rr5r9rrrr*r*s„ñô(-ôVrr*có—eZdZdZy)ÚNumbaUtilErroraæ
    Error raised for unsupported Numba engine routines.
 
    Examples
    --------
    >>> df = pd.DataFrame({"key": ["a", "a", "b", "b"], "data": [1, 2, 3, 4]},
    ...                   columns=["key", "data"])
    >>> def incorrect_function(x):
    ...     return sum(x) * 2.7
    >>> df.groupby("key").agg(incorrect_function, engine="numba")
    Traceback (most recent call last):
    NumbaUtilError: The first 2 arguments to incorrect_function
    must be ['values', 'index']
    Nr
rrrr>r>7s„ò rr>có—eZdZdZy)ÚDuplicateLabelErrora’
    Error raised when an operation would introduce duplicate labels.
 
    Examples
    --------
    >>> s = pd.Series([0, 1, 2], index=['a', 'b', 'c']).set_flags(
    ...     allows_duplicate_labels=False
    ... )
    >>> s.reindex(['a', 'a', 'b'])
    Traceback (most recent call last):
       ...
    DuplicateLabelError: Index has duplicates.
          positions
    label
    a        [0, 1]
    Nr
rrrr@r@Hrrr@có—eZdZdZy)ÚInvalidIndexErroraË
    Exception raised when attempting to use an invalid index key.
 
    Examples
    --------
    >>> idx = pd.MultiIndex.from_product([["x", "y"], [0, 1]])
    >>> df = pd.DataFrame([[1, 1, 2, 2],
    ...                   [3, 3, 4, 4]], columns=idx)
    >>> df
        x       y
        0   1   0   1
    0   1   1   2   2
    1   3   3   4   4
    >>> df[:, 0]
    Traceback (most recent call last):
    InvalidIndexError: (slice(None, None, None), 0)
    Nr
rrrrBrB[r(rrBcó—eZdZdZy)Ú    DataErrorah
    Exceptionn raised when performing an operation on non-numerical data.
 
    For example, calling ``ohlc`` on a non-numerical column or a function
    on a rolling window.
 
    Examples
    --------
    >>> ser = pd.Series(['a', 'b', 'c'])
    >>> ser.rolling(2).sum()
    Traceback (most recent call last):
    DataError: No numeric types to aggregate
    Nr
rrrrDrDorrrDcó—eZdZdZy)ÚSpecificationErrora‚
    Exception raised by ``agg`` when the functions are ill-specified.
 
    The exception raised in two scenarios.
 
    The first way is calling ``agg`` on a
    Dataframe or Series using a nested renamer (dict-of-dict).
 
    The second way is calling ``agg`` on a Dataframe with duplicated functions
    names without assigning column name.
 
    Examples
    --------
    >>> df = pd.DataFrame({'A': [1, 1, 1, 2, 2],
    ...                    'B': range(5),
    ...                    'C': range(5)})
    >>> df.groupby('A').B.agg({'foo': 'count'}) # doctest: +SKIP
    ... # SpecificationError: nested renamer is not supported
 
    >>> df.groupby('A').agg({'B': {'foo': ['sum', 'max']}}) # doctest: +SKIP
    ... # SpecificationError: nested renamer is not supported
 
    >>> df.groupby('A').agg(['min', 'min']) # doctest: +SKIP
    ... # SpecificationError: nested renamer is not supported
    Nr
rrrrFrFs„òrrFcó—eZdZdZy)ÚSettingWithCopyErrora¶
    Exception raised when trying to set on a copied slice from a ``DataFrame``.
 
    The ``mode.chained_assignment`` needs to be set to set to 'raise.' This can
    happen unintentionally when chained indexing.
 
    For more information on evaluation order,
    see :ref:`the user guide<indexing.evaluation_order>`.
 
    For more information on view vs. copy,
    see :ref:`the user guide<indexing.view_versus_copy>`.
 
    Examples
    --------
    >>> pd.options.mode.chained_assignment = 'raise'
    >>> df = pd.DataFrame({'A': [1, 1, 1, 2, 2]}, columns=['A'])
    >>> df.loc[0:3]['A'] = 'a' # doctest: +SKIP
    ... # SettingWithCopyError: A value is trying to be set on a copy of a...
    Nr
rrrrHrH›ó„òrrHcó—eZdZdZy)ÚSettingWithCopyWarninga¢
    Warning raised when trying to set on a copied slice from a ``DataFrame``.
 
    The ``mode.chained_assignment`` needs to be set to set to 'warn.'
    'Warn' is the default option. This can happen unintentionally when
    chained indexing.
 
    For more information on evaluation order,
    see :ref:`the user guide<indexing.evaluation_order>`.
 
    For more information on view vs. copy,
    see :ref:`the user guide<indexing.view_versus_copy>`.
 
    Examples
    --------
    >>> df = pd.DataFrame({'A': [1, 1, 1, 2, 2]}, columns=['A'])
    >>> df.loc[0:3]['A'] = 'a' # doctest: +SKIP
    ... # SettingWithCopyWarning: A value is trying to be set on a copy of a...
    Nr
rrrrKrK±rIrrKcó—eZdZdZy)ÚChainedAssignmentErrora
    Warning raised when trying to set using chained assignment.
 
    When the ``mode.copy_on_write`` option is enabled, chained assignment can
    never work. In such a situation, we are always setting into a temporary
    object that is the result of an indexing operation (getitem), which under
    Copy-on-Write always behaves as a copy. Thus, assigning through a chain
    can never update the original Series or DataFrame.
 
    For more information on view vs. copy,
    see :ref:`the user guide<indexing.view_versus_copy>`.
 
    Examples
    --------
    >>> pd.options.mode.copy_on_write = True
    >>> df = pd.DataFrame({'A': [1, 1, 1, 2, 2]}, columns=['A'])
    >>> df["A"][0:3] = 10 # doctest: +SKIP
    ... # ChainedAssignmentError: ...
    >>> pd.options.mode.copy_on_write = False
    Nr
rrrrMrMÇs„òrrMaA value is trying to be set on a copy of a DataFrame or Series through chained assignment.
When using the Copy-on-Write mode, such chained assignment never works to update the original DataFrame or Series, because the intermediate object on which we are setting values always behaves as a copy.
 
Try using '.loc[row_indexer, col_indexer] = value' instead, to perform the assignment in a single step.
 
See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copyaðA value is trying to be set on a copy of a DataFrame or Series through chained assignment using an inplace method.
When using the Copy-on-Write mode, such inplace method never works to update the original DataFrame or Series, because the intermediate object on which we are setting values always behaves as a copy.
 
For example, when doing 'df[col].method(value, inplace=True)', try using 'df.method({col: value}, inplace=True)' instead, to perform the operation inplace on the original object.
 
aChainedAssignmentError: behaviour will change in pandas 3.0!
You are setting values through chained assignment. Currently this works in certain cases, but when using Copy-on-Write (which will become the default behaviour in pandas 3.0) this will never work to update the original DataFrame or Series, because the intermediate object on which we are setting values will behave as a copy.
A typical example is when you are setting values in a column of a DataFrame, like:
 
df["col"][row_indexer] = value
 
Use `df.loc[row_indexer, "col"] = values` instead, to perform the assignment in a single step and ensure this keeps updating the original `df`.
 
See the caveats in the documentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy
aðA value is trying to be set on a copy of a DataFrame or Series through chained assignment using an inplace method.
The behavior will change in pandas 3.0. This inplace method will never work because the intermediate object on which we are setting values always behaves as a copy.
 
For example, when doing 'df[col].method(value, inplace=True)', try using 'df.method({col: value}, inplace=True)' or df[col] = df[col].method(value) instead, to perform the operation inplace on the original object.
 
cóԗt|d«r\|jd«}|€yt|d«r9|jd|jvr||j|jduSy)NÚ_cacheréFÚ _item_cacher)ÚhasattrrOrQ)ÚobjÚparents  rÚ _check_cacherrUsk€ô
ˆsIÔØ—‘˜Q‘Ó!ˆà ˆ>ØÜ 6˜=Ô )؏{‰{˜1‰~ ×!3Ñ!3Ñ3ð˜f×0Ñ0°·±¸Q±Ñ@Ð@Ð@Ø rcó—eZdZdZy)ÚNumExprClobberingErrora
    Exception raised when trying to use a built-in numexpr name as a variable name.
 
    ``eval`` or ``query`` will throw the error if the engine is set
    to 'numexpr'. 'numexpr' is the default engine value for these methods if the
    numexpr package is installed.
 
    Examples
    --------
    >>> df = pd.DataFrame({'abs': [1, 1, 1]})
    >>> df.query("abs > 2") # doctest: +SKIP
    ... # NumExprClobberingError: Variables in expression "(abs) > (2)" overlap...
    >>> sin, a = 1, 2
    >>> pd.eval("sin + a", engine='numexpr') # doctest: +SKIP
    ... # NumExprClobberingError: Variables in expression "(sin) + (a)" overlap...
    Nr
rrrrWrW)rrrWcó&‡—eZdZdZddˆfd„ ZˆxZS)ÚUndefinedVariableErrora$
    Exception raised by ``query`` or ``eval`` when using an undefined variable name.
 
    It will also specify whether the undefined variable is local or not.
 
    Examples
    --------
    >>> df = pd.DataFrame({'A': [1, 1, 1]})
    >>> df.query("A > x") # doctest: +SKIP
    ... # UndefinedVariableError: name 'x' is not defined
    >>> df.query("A > @y") # doctest: +SKIP
    ... # UndefinedVariableError: local variable 'y' is not defined
    >>> pd.eval('x + 1') # doctest: +SKIP
    ... # UndefinedVariableError: name 'x' is not defined
    cóZ•—t|«›d}|rd|›}nd|›}t‰|    |«y)Nz is not definedzlocal variable zname )ÚreprÚsuperr5)r3r8Úis_localÚbase_msgÚmsgÚ    __class__s     €rr5zUndefinedVariableError.__init__Ms;ø€Ü˜4“j\ Ð1ˆÙ Ø# H :Ð.‰Cà˜(˜Ð$ˆCÜ ‰Ñ˜Õr)N)r8r:r]z bool | Noner;r<©r r r rr5Ú __classcell__©r`s@rrYrY<sø„ñ÷ òrrYcó—eZdZdZy)Ú IndexingErroraã
    Exception is raised when trying to index and there is a mismatch in dimensions.
 
    Examples
    --------
    >>> df = pd.DataFrame({'A': [1, 1, 1]})
    >>> df.loc[..., ..., 'A'] # doctest: +SKIP
    ... # IndexingError: indexer may only contain one '...' entry
    >>> df = pd.DataFrame({'A': [1, 1, 1]})
    >>> df.loc[1, ..., ...] # doctest: +SKIP
    ... # IndexingError: Too many indexers
    >>> df[pd.Series([True], dtype=bool)] # doctest: +SKIP
    ... # IndexingError: Unalignable boolean Series provided as indexer...
    >>> s = pd.Series(range(2),
    ...               index = pd.MultiIndex.from_product([["a", "b"], ["c"]]))
    >>> s.loc["a", "c", "d"] # doctest: +SKIP
    ... # IndexingError: Too many indexers
    Nr
rrrrereVó„òrrecó—eZdZdZy)ÚPyperclipExceptionzƒ
    Exception raised when clipboard functionality is unsupported.
 
    Raised by ``to_clipboard()`` and ``read_clipboard()``.
    Nr
rrrrhrhks„òrrhcó$‡—eZdZdZdˆfd„ ZˆxZS)ÚPyperclipWindowsExceptionz¼
    Exception raised when clipboard functionality is unsupported by Windows.
 
    Access to the clipboard handle would be denied due to some other
    window process is accessing it.
    cóZ•—|dtj«›dz }t‰| |«y)Nz (ú))ÚctypesÚWinErrorr\r5)r3Úmessager`s  €rr5z"PyperclipWindowsException.__init__{s+ø€àRœŸ™Ó)Ð*¨!Ð,Ñ,ˆÜ ‰Ñ˜Õ!r)ror:r;r<rarcs@rrjrjssø„ñ÷"ñ"rrjcó—eZdZdZy)Ú
CSSWarningat
    Warning is raised when converting css styling fails.
 
    This can be due to the styling not having an equivalent value or because the
    styling isn't properly formatted.
 
    Examples
    --------
    >>> df = pd.DataFrame({'A': [1, 1, 1]})
    >>> df.style.applymap(
    ...     lambda x: 'background-color: blueGreenRed;'
    ... ).to_excel('styled.xlsx')  # doctest: +SKIP
    CSSWarning: Unhandled color format: 'blueGreenRed'
    >>> df.style.applymap(
    ...     lambda x: 'border: 1px solid red red;'
    ... ).to_excel('styled.xlsx')  # doctest: +SKIP
    CSSWarning: Unhandled color format: 'blueGreenRed'
    Nr
rrrrqrqrfrrqcó—eZdZdZy)ÚPossibleDataLossErrora&
    Exception raised when trying to open a HDFStore file when already opened.
 
    Examples
    --------
    >>> store = pd.HDFStore('my-store', 'a') # doctest: +SKIP
    >>> store.open("w") # doctest: +SKIP
    ... # PossibleDataLossError: Re-opening the file [my-store] with mode [a]...
    Nr
rrrrsrs–rrrscó—eZdZdZy)ÚClosedFileErrora8
    Exception is raised when trying to perform an operation on a closed HDFStore file.
 
    Examples
    --------
    >>> store = pd.HDFStore('my-store', 'a') # doctest: +SKIP
    >>> store.close() # doctest: +SKIP
    >>> store.keys() # doctest: +SKIP
    ... # ClosedFileError: my-store file is not open!
    Nr
rrrruru¢ó„ò    rrucó—eZdZdZy)ÚIncompatibilityWarningzX
    Warning raised when trying to use where criteria on an incompatible HDF5 file.
    Nr
rrrrxrx¯ó„òrrxcó—eZdZdZy)ÚAttributeConflictWarninga)
    Warning raised when index attributes conflict when using HDFStore.
 
    Occurs when attempting to append an index with a different
    name than the existing index on an HDFStore or attempting to append an index with a
    different frequency than the existing index on an HDFStore.
 
    Examples
    --------
    >>> idx1 = pd.Index(['a', 'b'], name='name1')
    >>> df1 = pd.DataFrame([[1, 2], [3, 4]], index=idx1)
    >>> df1.to_hdf('file', 'data', 'w', append=True)  # doctest: +SKIP
    >>> idx2 = pd.Index(['c', 'd'], name='name2')
    >>> df2 = pd.DataFrame([[5, 6], [7, 8]], index=idx2)
    >>> df2.to_hdf('file', 'data', 'a', append=True)  # doctest: +SKIP
    AttributeConflictWarning: the [index_name] attribute of the existing index is
    [name1] which conflicts with the new [name2]...
    Nr
rrrr{r{µrfrr{có—eZdZdZy)Ú DatabaseErroraJ
    Error is raised when executing sql with bad syntax or sql that throws an error.
 
    Examples
    --------
    >>> from sqlite3 import connect
    >>> conn = connect(':memory:')
    >>> pd.read_sql('select * test', conn) # doctest: +SKIP
    ... # DatabaseError: Execution failed on sql 'test': near "test": syntax error
    Nr
rrrr}r}Êrvrr}có—eZdZdZy)ÚPossiblePrecisionLossa¥
    Warning raised by to_stata on a column with a value outside or equal to int64.
 
    When the column value is outside or equal to the int64 value the column is
    converted to a float64 dtype.
 
    Examples
    --------
    >>> df = pd.DataFrame({"s": pd.Series([1, 2**53], dtype=np.int64)})
    >>> df.to_stata('test') # doctest: +SKIP
    ... # PossiblePrecisionLoss: Column converted from int64 to float64...
    Nr
rrrrr×ó„ò rrcó—eZdZdZy)ÚValueLabelTypeMismatchaK
    Warning raised by to_stata on a category column that contains non-string values.
 
    Examples
    --------
    >>> df = pd.DataFrame({"categories": pd.Series(["a", 2], dtype="category")})
    >>> df.to_stata('test') # doctest: +SKIP
    ... # ValueLabelTypeMismatch: Stata value labels (pandas categories) must be str...
    Nr
rrrr‚r‚ærrr‚có—eZdZdZy)ÚInvalidColumnNamea‹
    Warning raised by to_stata the column contains a non-valid stata name.
 
    Because the column name is an invalid Stata variable, the name needs to be
    converted.
 
    Examples
    --------
    >>> df = pd.DataFrame({"0categories": pd.Series([2, 2])})
    >>> df.to_stata('test') # doctest: +SKIP
    ... # InvalidColumnName: Not all pandas column names were valid Stata variable...
    Nr
rrrr„r„òr€rr„có—eZdZdZy)ÚCategoricalConversionWarningaŠ
    Warning is raised when reading a partial labeled Stata file using a iterator.
 
    Examples
    --------
    >>> from pandas.io.stata import StataReader
    >>> with StataReader('dta_file', chunksize=2) as reader: # doctest: +SKIP
    ...   for i, block in enumerate(reader):
    ...      print(i, block)
    ... # CategoricalConversionWarning: One or more series with value labels...
    Nr
rrrr†r†r#rr†có—eZdZdZy)ÚLossySetitemErrorz‹
    Raised when trying to do a __setitem__ on an np.ndarray that is not lossless.
 
    Notes
    -----
    This is an internal error.
    Nr
rrrrˆrˆó„òrrˆcó—eZdZdZy)ÚNoBufferPresentz^
    Exception is raised in _get_data_buffer to signal that there is no requested buffer.
    Nr
rrrr‹r‹ryrr‹có—eZdZdZy)ÚInvalidComparisonz’
    Exception is raised by _validate_comparison_value to indicate an invalid comparison.
 
    Notes
    -----
    This is an internal error.
    Nr
rrrrrr‰rr)(r*r{r†rurqr}rDr r@r"rxr    r„rrBrrerˆr'r‹rr>rWrrrrr%rrsrrhrjrHrKrFrYrrr‚)?rÚ
__future__rrmÚpandas._config.configrÚpandas._libs.tslibsrrÚpandas.util.versionrr0r    rÚWarningrrÚKeyErrorrrr r"r%r'ÚNotImplementedErrorr*Ú    Exceptionr>r@rBrDrFrHrKrMÚ_chained_assignment_msgÚ_chained_assignment_method_msgÚ_chained_assignment_warning_msgÚ&_chained_assignment_warning_method_msgrUÚ    NameErrorrWrYreÚ RuntimeErrorrhrjÚ UserWarningrqrsrurxr{ÚOSErrorr}rr‚r„r†rˆr‹rÚ__all__rrrú<module>rŸsðñõ#ã å-÷õ
/ô    ˜ô    ô ˜ô ô ˜ôô4˜jôô&˜ôô6*ôô247ô4ôn Zô ô&Gô&ôRôô(#VÐ-ô#VôLYôô"˜*ôô&˜    ôô(     ô ô ˜ôô8˜:ôô,˜Wôô,˜Wôð0    3ðð8ðð 5ð ð&8ð'òô$˜Yôô&˜Yôô4Iôô*˜ôô "Р2ô "ôôô*    ˜Iô    ô
iô
ô˜Wôô ˜wôô*
Gô
ô ˜Gô ô    ˜Wô    ô ˜ô ô  7ô ô˜    ôôiôô ˜    ôò) r