• 6.13 数据的累加与统计操作
    • 问题
    • 解决方案
    • 讨论

    6.13 数据的累加与统计操作

    问题

    你需要处理一个很大的数据集并需要计算数据总和或其他统计量。

    解决方案

    对于任何涉及到统计、时间序列以及其他相关技术的数据分析问题,都可以考虑使用 Pandas库 。

    为了让你先体验下,下面是一个使用Pandas来分析芝加哥城市的老鼠和啮齿类动物数据库 的例子。在我写这篇文章的时候,这个数据库是一个拥有大概74,000行数据的CSV文件。

    1. >>> import pandas
    2.  
    3. >>> # Read a CSV file, skipping last line
    4. >>> rats = pandas.read_csv('rats.csv', skip_footer=1)
    5. >>> rats
    6. <class 'pandas.core.frame.DataFrame'>
    7. Int64Index: 74055 entries, 0 to 74054
    8. Data columns:
    9. Creation Date 74055 non-null values
    10. Status 74055 non-null values
    11. Completion Date 72154 non-null values
    12. Service Request Number 74055 non-null values
    13. Type of Service Request 74055 non-null values
    14. Number of Premises Baited 65804 non-null values
    15. Number of Premises with Garbage 65600 non-null values
    16. Number of Premises with Rats 65752 non-null values
    17. Current Activity 66041 non-null values
    18. Most Recent Action 66023 non-null values
    19. Street Address 74055 non-null values
    20. ZIP Code 73584 non-null values
    21. X Coordinate 74043 non-null values
    22. Y Coordinate 74043 non-null values
    23. Ward 74044 non-null values
    24. Police District 74044 non-null values
    25. Community Area 74044 non-null values
    26. Latitude 74043 non-null values
    27. Longitude 74043 non-null values
    28. Location 74043 non-null values
    29. dtypes: float64(11), object(9)
    30.  
    31. >>> # Investigate range of values for a certain field
    32. >>> rats['Current Activity'].unique()
    33. array([nan, Dispatch Crew, Request Sanitation Inspector], dtype=object)
    34. >>> # Filter the data
    35. >>> crew_dispatched = rats[rats['Current Activity'] == 'Dispatch Crew']
    36. >>> len(crew_dispatched)
    37. 65676
    38. >>>
    39.  
    40. >>> # Find 10 most rat-infested ZIP codes in Chicago
    41. >>> crew_dispatched['ZIP Code'].value_counts()[:10]
    42. 60647 3837
    43. 60618 3530
    44. 60614 3284
    45. 60629 3251
    46. 60636 2801
    47. 60657 2465
    48. 60641 2238
    49. 60609 2206
    50. 60651 2152
    51. 60632 2071
    52. >>>
    53.  
    54. >>> # Group by completion date
    55. >>> dates = crew_dispatched.groupby('Completion Date')
    56. <pandas.core.groupby.DataFrameGroupBy object at 0x10d0a2a10>
    57. >>> len(dates)
    58. 472
    59. >>>
    60.  
    61. >>> # Determine counts on each day
    62. >>> date_counts = dates.size()
    63. >>> date_counts[0:10]
    64. Completion Date
    65. 01/03/2011 4
    66. 01/03/2012 125
    67. 01/04/2011 54
    68. 01/04/2012 38
    69. 01/05/2011 78
    70. 01/05/2012 100
    71. 01/06/2011 100
    72. 01/06/2012 58
    73. 01/07/2011 1
    74. 01/09/2012 12
    75. >>>
    76.  
    77. >>> # Sort the counts
    78. >>> date_counts.sort()
    79. >>> date_counts[-10:]
    80. Completion Date
    81. 10/12/2012 313
    82. 10/21/2011 314
    83. 09/20/2011 316
    84. 10/26/2011 319
    85. 02/22/2011 325
    86. 10/26/2012 333
    87. 03/17/2011 336
    88. 10/13/2011 378
    89. 10/14/2011 391
    90. 10/07/2011 457
    91. >>>

    嗯,看样子2011年10月7日对老鼠们来说是个很忙碌的日子啊!^_^

    讨论

    Pandas是一个拥有很多特性的大型函数库,我在这里不可能介绍完。但是只要你需要去分析大型数据集合、对数据分组、计算各种统计量或其他类似任务的话,这个函数库真的值得你去看一看。

    原文:

    http://python3-cookbook.readthedocs.io/zh_CN/latest/c06/p13_summarizing_and_perform_statistics.html