Thống kê học đã đánh mất quyền lực của nó như thế nào

Thống kê học đã đánh mất quyền lực của nó như thế nào

(Tác giả: William Davies – Nguồn: http://www.phantichkinhte123.com)

 THỐNG KÊ HỌC ĐÃ ĐÁNH MẤT QUYỀN LỰC CỦA NÓ NHƯ THẾ NÀO – VÀ TẠI SAO CHÚNG TA NÊN LO NGẠI VỀ NHỮNG ĐIỀU SẮP TỚI

Khả năng của thống kê học để mô tả thế giới một cách chính xác đang suy giảm. Ngay sau đó, là một thời đại mới của dữ liệu lớn do các công ty tư nhân kiểm soát đang thế chỗ [của thống kê học] – và gây nguy hiểm cho nền dân chủ.
Về mặt lý thuyết, thống kê học giúp giải quyết các cuộc tranh luận. Nó cung cấp các điểm tham chiếu ổn định để tất cả mọi người – bất luận  quan điểm chính trị thế nào – có thể đồng ý với nhau. Tuy nhiên, trong những năm gần đây, nhiều mức độ tin tưởng khác nhau về thống kê học đã trở thành một trong những luồng chia rẽ chính được mở ra trong các nền dân chủ tự do phương Tây. Ngay trước khi diễn ra cuộc bầu cử tổng thống vào tháng 11, một nghiên cứu tại Hoa Kỳ đã phát hiện ra rằng 68% số người ủng hộ Trump không tin vào các dữ liệu kinh tế được chính phủ liên bang công bố. Tại Anh, một dự án nghiên cứu của Đại học Cambridge và YouGov về các thuyết âm mưu phát hiện ra rằng 55% người dân tin rằng chính phủ “đang che giấu sự thật về số lượng người nhập cư đang sinh sống tại đây”.
Thay vì phổ biến cuộc tranh luận và sự phân cực, trên thực tế dường như thống kê học đang đổ thêm dầu vào lửa. Sự ác cảm đối với thống kê học đã trở thành một trong những dấu ấn của phái hữu dân túy, với việc các nhà thống kê và các nhà kinh tế chủ yếu nằm trong số nhiều “chuyên gia” khác có vẻ đã bị các cử tri loại bỏ trong năm 2016. Thống kê học không những bị nhiều người xem là không đáng tin cậy, mà dường như đối với họ còn là một cái gì đó gần như luôn có tính xúc phạm hoặc ngạo mạnQuy giản các vấn đề xã hội và kinh tế thành các tổng gộp và bình quân số học dường như là điều vi phạm ý thức của một số người về sự đúng đắn chính trị.

Điều này được biểu hiện không ở đâu mạnh mẽ bằng vấn đề nhập cư. Viện nghiên cứu chính sách British Future đã nghiên cứu cách thức tốt nhất để chiến thắng những lập luận ủng hộ vấn đề nhập cư và đa văn hóa. Một trong những phát hiện chính của họ là người dân thường phản ứng nồng nhiệt với các bằng chứng định tính, chẳng hạn như các chuyện kể của những cá nhân nhập cư và hình ảnh của nhiều cộng đồng khác nhau. Nhưng thống kê học – đặc biệt liên quan đến những lợi ích được cho là của việc nhập cư đối với nền kinh tế Anh – lại gây nên những phản ứng khá đối lập. Người dân cho rằng các con số đã bị thao túng và không thích việc giới tinh hoa viện đến những bằng chứng định lượng. Được cho biết ước tính chính thức về số người nhập cư bất hợp pháp vào nước Anh, phản ứng chung là một sự chế giễu. Viện British Future nhận thấy là khi chỉ ra hiệu ứng tích cực của vấn đề nhập cư đối với GDP, thì thay vì làm tăng sự ủng hộ vấn đề nhập cư thì ngược lại trên thực tế điều này có thể lại làm cho người dân Anh càng thù địch hơn đối với vấn đề đó. Bản thân GDP có vẻ giống như con ngựa thành Troia cho một nghị trình theo chủ nghĩa tự do của giới tinh hoa. Cảm nhận được điều này, các chính trị gia hiện nay đã hầu như không thảo luận vấn đề nhập cư về mặt kinh tế.
Tất cả điều này là một thách thức nghiêm trọng đối với nền dân chủ tự do. Nói một cách thẳng thừng, chính phủ Anh – các quan chức, chuyên gia, cố vấn và nhiều chính trị gia khác – tin rằng vấn đề nhập cư khi cân nhắc kĩ là có lợi cho nền kinh tế. Chính phủ Anh tin rằng Brexit là một lựa chọn sai. Vấn đề là chính phủ giờ đây đang dấn thân vào một hình thức tự kiểm duyệt, vì lo ngại khiêu khích người dân hơn nữa.
Đây là một tình thế tiến thoái lưỡng nan không mong muốn. Hoặc nhà nước tiếp tục tuyên bố tin tưởng vấn đề nhập cư là có cơ sở vững chắc và bị những hoài nghi cáo buộc là tuyên truyền, hoặc khác, các chính trị gia và quan chức đều bị giới hạn nói ra những gì họ cảm thấy hợp lý và đúng theo trực giác, nhưng có thể cuối cùng là không chính xác. Trong cả hai trường hợp, hoạt động chính trị sa lầy trong những lời buộc tội dối trá và bao che.
Uy tín suy giảm của thống kê học là tâm điểm của cuộc khủng hoảng, được biết đến là hoạt động chính trị “hậu sự thật”
Uy tín suy giảm của thống kê học – và của các chuyên gia phân tích nó – là tâm điểm của cuộc khủng hoảng, được biết đến dưới tên gọi chính trị “hậu sự thật”. Và trong thế giới mới bất định này, thái độ đối với đánh giá định lượng của chuyên gia đã trở nên ngày càng không thống nhất. Theo quan điểm của một phía, đặt chính trị trên nền tảng của thống kê học thuộc về giới tinh hoa, phi dân chủ và mù tịt về sự đầu tư cảm xúc của người dân vào cộng đồng và quốc gia của họ. Đó chỉ là một cách khác để những người có đặc quyền ở London, Washington DC hay Brussels tìm cách áp đặt thế giới quan của họ lên tất cả mọi người khác. Theo quan điểm đối lập lại, thống kê học là hoàn toàn trái ngược với giới tinh hoa. Nó cho phép các nhà báo, người dân và các chính trị gia cùng thảo luận chung vấn đề xã hội nhìn như một tổng thể, không phải trên cơ sở các giai thoại, tình cảm hay thành kiến, mà là theo những cách có thể chứng minh là đúng đn. Đối chọn cho đánh giá định lượng ít có khả năng  dân chủ hơn bằng việc thả lõng những biên tập viên của các tờ báo lá cải và những người mị dân cung cấp những “sự thật” của riêng họ về những gì đang xảy ra trong toàn xã hội.
Liệu có cách nào để thoát khỏi sự phân cực này không? Liệu chúng ta chỉ phải đơn giản lựa chọn giữa một nền chính trị dựa vào sự kiện và một nền chính trị dựa vào cảm xúc, hay là liệu có một cách phân tích nào khác không? Có một cách là xem xét thống kê học qua lăng kính lịch sử của bộ môn này. Chúng ta cần thử và xem những gì thống kê thật sự  gì: đó không phải là những sự thật không thể bác bỏ và cũng không phải là những âm mưu của giới tinh hoa, mà đúng hơn là những công cụ được thiết kế để đơn giản hóa công việc của chính phủ, vì điều tốt hơn hoặc tồi tệ hơn. Xem xét về mặt lịch sử, chúng ta có thể thấy được vai trò quan trọng mà thống kê học đã đóng góp vào sự hiểu biết của chúng ta về nhà nước-dân tộc và sự tiến triển của nó. Điều này đặt ra câu hỏi đáng báo động là làm thế nào – nếu có thể – để chúng ta có thể tiếp tục có những ý tưởng chung về xã hội và sự tiến bộ tập thể, nếu thống kê học rơi rụng giữa đường.
Trong nửa sau của thế kỷ 17, do hậu quả của các cuộc xung đột kéo dài và đẫm máu, các nhà cai trị châu Âu đã chọn một quan điểm hoàn toàn mới về nhiệm vụ của chính phủ, tập trung vào các xu hướng của dân số – một cách tiếp cận khả thi với sự ra đời của thống kê học hiện đại. Từ xa xưa, các cuộc tổng điều tra đã được sử dụng để theo dõi quy mô dân số, nhưng chúng rất tốn kém và mất thời gian để thực hiện và tập trung vào những công dân được coi là quan trọng về mặt chính trị (những người sở hữu tài sản), chứ không phải là xã hội nói chung. Thống kê học đã cung cấp một cái gì đó hoàn toàn khác, làm biến đổi bản chất của chính trị trong quá trình xử lí.

Thống kê học được thiết kế để cung cấp sự hiểu biết về một dân số trong tính toàn vẹn của nó, chứ không phải đơn thuần nhận diện nguồn gốc của quyền lực và sự giàu có có giá trị về mặt chiến lược. Ban đầu, điều này không phải lúc nào cũng liên quan đến việc đưa ra các con số. Ví dụ, tại Đức (nơi đã sản sinh cho chúng ta thuật ngữ Statistik) thách thức là lập bản đồ nhiều tập tục, thể chế và luật pháp khác nhau trong một đế chế của hàng trăm bang siêu nhỏ. Điều đặc trưng cho kiến thức này về mặt thống kê là bản chất tổng thể luận của nó: nó nhằm mục đích tạo ra hình ảnh của quốc gia như một bức tranh toàn thể. Thống kê học xử lí dân số cũng giống như bản đồ học xử lí lãnh thổ.

William Petty (1623-1687)
John Graunt (1620- 1674)

Không kém quan trọng là nguồn cảm hứng của các ngành khoa học tự nhiên. Nhờ các thước đo tiêu chuẩn hóa và các kỹ thuật toán học, kiến thức thống kê có thể được giới thiệu như là ngành khách quan, theo cách giống như thiên văn học. Những nhà dân số học tiên phong người Anh như William Petty và John Graunt đã sử dụng các kỹ thuật toán học để ước tính sự thay đổi dân số, và nhờ đó mà họ được Oliver Cromwell và Charles II tuyển dụng.

Sự xuất hiện, vào cuối thế kỷ thứ 17, của các cố vấn chính phủ được khẳng định bởi uy tín khoa học, chứ không phải là sự nhạy bén về chính trị hay quân sự, tượng trưng cho nguồn gốc của văn hóa “chuyên gia” mà giờ đây đang bị những người theo tư tưởng dân túy mắng nhiếc. Những cá nhân mở đường này không phải là những học giả thuần túy và cũng không phải là những quan chức chính phủ, mà là những người ở đâu đó giữa hai loại người nói trên. Họ là những người nghiệp dư nhiệt tình, những người tạo ra một cách suy nghĩ mới về dân số nhờ các tổng gộp và sự kiện khách quan. Nhờ vào năng lực toán học, họ tự tin là có thể tính toán những gì mà nếu không đòi hỏi phải tiến hành một cuộc điều tra rộng lớn mới khám phá được.
Mù tịt về tính đa dạng của văn hóa địa phương chính là điều làm cho thống kê học trở nên tầm thường và có khả năng mang tính xúc phạm
Ban đầu chỉ có một khách hàng cho loại hình đánh giá chuyên môn này, và đầu mối nằm trong từ “thống kê học”. Chỉ có các nhà nước-dân tộc tập quyền mới có khả năng thu thập dữ liệu trên các tổng thể lớn theo một cách được chuẩn hóa và chỉ nhà nước mới có bất cứ nhu cầu nào về những dữ liệu như vậy, trước tiên. Trong nửa sau thế kỷ 18, các quốc gia châu Âu bắt đầu thu thập nhiều số liệu thống kê hơn mà về mặt về hình thức trông có vẻ quen thuộc với chúng ta ngày nay. Xét một cách tổng quát các tổng thể ở cấp quốc gia, các nhà nước đã tập trung vào một loạt các vấn đề: sinh, tử, rửa tội, hôn nhân, thu hoạch, nhập khẩu, xuất khẩu, biến động giá cả. Những thứ mà trước đây được đăng ký ở cấp địa phương và theo nhiều cách khác nhau ở cấp giáo phận thì nay đã tổng gộp lại ở cấp quốc gia.
Những kỹ thuật mới đã được phát triển để biểu trưng các chỉ báo nàychúng khai thác c chiều kích hàng dọc lẫn hàng ngang của trang, trình bày dữ liệu dưới dạng ma trận và bảng biểu, giống như các nhà buôn đã làm với sự phát triển của kỹ thuật kế toán được chuẩn hóa vào những năm cuối của thế kỷ 15. Việc sắp xếp các con số thành hàng và cột đã tạo ra một cách thức mới mạnh mẽ để giới thiệu các thuộc tính của một xã hội nhất định. Những vấn đề lớn, phức tạp giờ đây có thể được khảo sát một cách đơn giản bằng cách quét các dữ liệu được trình bày bằng hình học chỉ trên một trang.
Những đổi mới này mang lại tiềm lực phi thường cho các chính phủ. Bằng cách đơn giản hóa nhiều tổng thể khác nhau xuống thành những chỉ báo cụ thể, và sắp xếp chúng trong những bảng biểu thích hợp, các chính phủ có thể tránh né sự cần thiết phải hiểu tường tận về địa phương và lịch sử một cách chi tiết ở diện rộng hơn. Tất nhiên, nhìn từ một góc độ khác, sự mù tịt về tính đa dạng của văn hóa địa phương chính là điều làm cho thống kê học trở nên tầm thường và có khả năng mang tính xúc phạm. Bất luận việc một quốc gia nhất định có hay không một bản sắc văn hóa chung, các nhà thống kê học sẽ giả định là quốc gia ấy có một sự đồng nhất về mặt văn hóa hoặc, như một số người có thể lập luận, áp đặt tính đồng nhất đó lên quốc gia này.
Không phải mọi khía cạnh của một tổng thể nhất định đều có thể được thống kê học nắm bắt. Luôn có một sự lựa chọn ngầm ẩn về những gì được đưa vào và những gì được loại ra, và sự lựa chọn này tự thân nó đã có thể là một vấn đề chính trị. Việc GDP chỉ nắm bắt giá trị của những công việc được trả lương, do đó loại trừ công việc nội trợ truyền thống của phụ nữ, đã làm cho phong trào nữ quyền lấy đó làm mục tiêu phê phán kể từ năm 1960. Ở Pháp, việc thu thập dữ liệu điều tra dân số về sắc tộc là điều bất hợp pháp kể từ năm 1978, trên cơ sở cho rằng các dữ liệu đó có thể được sử dụng vì các mục đích chính trị về phân biệt chủng tộc. (Điều này có tác dụng phụ là khiến càng khó lượng hóa hơn tệ phân biệt chủng tộc có hệ thống trong thị trường lao động.)
Mặc cho những lời phê phán nói trên, khát vọng mô tả xã hội trong tổng thể của nó, và để làm điều đó một cách khách quan, có nghĩa là có nhiều lý tưởng tiến bộ khác nhau đã được gắn liền với thống kê học. Hình ảnh của thống kê học là một khoa học xã hội lạnh lùng chỉ là một phần của câu chuyện. Phần khác [của câu chuyện] là việc những lý tưởng chính trị mạnh mẽ đó được đầu tư như thế nào vào những kỹ thuật này: đó là lý tưởng của các “chính sách dựa trên chứng cứ”, tính duy lý, sự tiến bộ và tinh thần dân tộc căn cứ vào sự kiện, hơn là vào là những câu chuyện lãng mạn hóa.
Benedict Anderson (1936-2015)

Kể từ đỉnh điểm của thời kỳ Khai sáng vào cuối thế kỷ 18, những người theo chủ nghĩa tự do và cộng hòa đã rất hy vọng rằng các khung đo lường quốc gia có thể tạo ra một nền chính trị duy lý hơn, được tổ chức xung quanh những cải tiến chứng minh được trong đời sống xã hội và kinh tế. Lý thuyết gia vĩ đại của chủ nghĩa dân tộc, Benedict Anderson, đã mô tả quốc gia như là một “cộng đồng tưởng tượng”, nhưng thống kê học đưa ra lời hứa neo trí tưởng tượng này trong một cái gì đó mang tính hữu hình. Tương tự, thống kê học hứa hẹn sẽ bộc lộ lộ trình lịch sử mà quốc gia đang đi là gì: loại tiến bộ nào đang diễn ra? Tốc độ như thế nào? Đối với những người theo chủ nghĩa tự do của thời kỳ Khai sáng, những người đã thấy các quốc gia chuyển động theo một hướng lịch sử đơn nhất, thì vấn đề này  cực kỳ quan trọng.

Tiềm năng của thống kê học để bộc lộ trạng thái của quốc gia đã được tận dụng trong thời kỳ sau cuộc cách mạng Pháp. Nhà nước theo phái Jacobin dự định áp đặt một khung đo lường quốc gia và thu thập dữ liệu quốc gia hoàn toàn mới. Văn phòng thống kê chính thức đầu tiên trên thế giới được thành lập ở Paris vào năm 1800. Tính đồng nhất của việc thu thập dữ liệu, được giám sát bởi các chuyên gia có trình độ chuyên ngành cao, là một phần không thể thiếu của lý tưởng về một nước cộng hòa tập quyền ở trung ương, để tìm cách thiết lập một xã hội thống nhất, bình đẳng.
Charles Booth (1840-1916)
Web Du Bois (1868-1963)

Từ thời kỳ Khai sáng trở đi, thống kê học đã đóng một vai trò ngày càng quan trọng trong các lĩnh vực công, cung cấp thông tin cho các cuộc tranh luận trên các phương tiện truyền thông,  cho các phong trào hoạt động xã hội những bằng chứng mà họ có thể sử dụng. Theo thời gian, việc tạo ra và phân tích những dữ liệu như vậy càng ít bị nhà nước chi phối. Các nhà khoa học xã hội hàn lâm bắt đầu phân tích dữ liệu phục vụ cho những mục đích riêng của họ, thường không liên quan gì đến các mục tiêu chính sách của chính phủ. Vào cuối thế kỷ 19, những nhà cải cách như Charles Booth tại London và Web Du Bois tại Philadelphia đã tiến hành những cuộc điều tra riêng của họ để tìm hiểu nạn nghèo khổ ở thành thị.

Ảnh minh họa của Guardian Design
Để nhận ra cách thức mà thống kê học đã sa lầy vào các khái niệm về sự tiến bộ quốc gia, hãy xem xét trường hợp của GDP. GDP là một ước tính về tổng số tiền chi tiêu của người tiêu dùng, chi tiêu của chính phủ, đầu tư và cán cân thương mại (kim ngạch xuất khẩu trừ nhập khẩu) của một quốc gia, được tượng trưng bằng một con số đơn nhất. Đây là một công việc cực kỳ khó khăn để tính đúng, và những nỗ lực để tính con số này bắt đầu, giống như rất nhiều kỹ thuật toán học khác, như là một việc bên lề, một quan tâm có phần nào đó chuyên sâu trong những năm 1930. Nó chỉ được nâng lên thành một vấn đề chính trị cấp bách ở tầm quốc gia bởi cuộc chiến tranh thế giới lần thứ hai, khi các chính phủ cần phải biết liệu dân số cả nước có sản xuất đủ để theo kịp các nỗ lực phục vụ chiến tranh hay không. Trong những thập niên sau đó, chỉ báo đơn nhất này, mặc dù chưa bao giờ không bị phê phán, đã có được một địa vị chính trị thiêng liêng, như là một phong vũ biểu tối thượng về năng lực điều hành của chính phủ. Cho dù GDP tăng hay giảm, hiện nay nó gần như là một biểu trưng cho năng lực này bất luận là xã hội đang tiến lên hay tụt lùi.
Hoặc thử lấy ví dụ về cuộc điều tra dư luận, một ví dụ rất sm cho sự đổi mới thống kê trong khu vực tư nhân. Trong những năm 1920, các nhà thống kê đã phát triển các phương pháp để xác định một mẫu đại diện của những người trả lời khảo sát, để thu nhặt thông tin về thái độ của công chúng nói chung. Bước đột phá này, trước tiên được các nhà nghiên cứu thị trường nhận thức, đã sớm dẫn đến sự ra đời của cuộc điều tra dư luận. Ngành công nghiệp mới này ngay lập tức trở thành đối tượng mê hoặc của công chúng và giới chính trị, khi các phương tiện truyền thông tường thuật những gì mà ngành khoa học mới này cho chúng ta biết những suy nghĩ về thế giới của “phụ nữ” hay “người Mỹ” hay “người lao động chân tay”.
Ngày nay, người ta không ngừng phê phán những khuyết tật của các cuộc điều tra dư luận. Nhưng điều này có lý do một phần từ những hy vọng quá to lớn đã từng được đầu tư vào việc điều tra dư luận ngay từ khi kĩ thuật này ra đờiChỉ trong chừng mực ta tin vào nền dân chủ đại chúng thì mới bị mê hoặc hoặc quá quan tâm đến những gì mà công chúng suy nghĩ. Nhưng nhờ phần lớn vào thống kê học, chớ không phải vào bản thân các định chế dân chủ, ta mới có thể biết được những gì công chúng suy nghĩ về những vấn đề cụ thể. Chúng ta đã đánh giá thấp ý thức của chúng ta về “lợi ích công cộng” bắt nguồn sâu như thế nào từ những tính toán của các chuyên gia, như được đối lập với các định chế dân chủ.
Khi các chỉ báo về sức khỏe, thịnh vượng, bình đẳng, dư luận và chất lượng cuộc sống cho chúng ta biết chúng ta là một tập thể, bất luận sự vật có trở nên tốt hơn hay tồi tệ hơn, thì các chính trị gia đã dựa rất nhiều vào thống kê học để củng cố quyền lực của họ. H thường dựa vào thống kê học quá nhiềucường điệu hóa bằng chứng quá đà, diễn giải dữ liệu quá dễ dãi, để phục vụ các mục đích của họ. Nhưng đó là một nguy cơ không thể tránh khỏi của tình trạng phổ biến của các con số trong đời sống công cộng, và không tất yếu kích hoạt loại chối bỏ thật tình đánh giá của chuyên gia mà chúng ta đã chứng kiến trong thời gian gần đây.
James C. Scott (1936- )

Về nhiều mặt, cuộc tấn công của phái dân túy hiện đại vào các “chuyên gia” phát sinh từ cùng một sự bất mãn cũng giống như cuộc tấn công vào các đại biểu dân cử. Khi nói về xã hội như là một tổng thể, để tìm cách điều hành nền kinh tế như là một tổng thể, các chính trị gia lẫn các nhà kỹ trị được cho là đã “đánh mất” cảm giác của một công dân đơn nhất trong trường hợp cá biệt. Cả nhà thống kê lẫn các chính trị gia đã rơi vào cái bẫy “dưới góc nhìn của chính quyền [seeing like a state]”, sử dụng lại một cụm từ của nhà tư tưởng chính trị theo trường phái vô chính phủ James C Scott. Bàn luận một cách khoa học về quốc gia – ví dụ về mặt kinh tế vĩ mô – là một sự xúc phạm đến những người muốn dựa vào kí ức và tự sự cho ý thức tinh thần dân tộc của họ, và chán ngấy khi bị nói rằng “cộng đồng tưởng tượng” của họ không tồn tại.

Mặt khác, thống kê học (cùng với các đại biểu dân cử) đã thực hiện một công việc thích hợp là hỗ trợ một diễn ngôn đáng tin trong công chúng trong nhiều thập niên qua, nếu không muốn nói nhiều thế kỷ qua. Điều gì đã thay đổi?
Cuộc khủng hoảng thống kê học không bất ngờ như nó có vẻ. Trong khoảng 450 năm, thành tích tuyệt vời của các nhà thống kê là làm giảm tính phức tạp và tính lỏng lẻo của các tổng thể quốc gia thành những cơ sở lập luận và con số có thể quản lý, dễ hiểu. Tuy nhiên, trong những thập niên gần đây, thế giới đã thay đổi đáng kể, nhờ vào các quan niệm chính trị văn hoá xuất hiện trong những năm 1960 và sự định hình lại của nền kinh tế toàn cầu đã bắt đầu ngay sau đó. Có điều không rõ là liệu các nhà thống kê có luôn theo kịp với những thay đổi này không. Các hình thức phân loại và định nghĩa thống kê truyền thống đang bị thử thách từ những bản sắc, thái độ và lộ trình kinh tế lỏng lẻo hơn. Những nỗ lực để biểu trưng sự thay đổi về dân số, xã hội và kinh tế bằng những chỉ báo đơn giản, được thừa nhận đang đánh mất tính chính danh.
Hãy thử xem xét sự thay đổi về mặt địa lý chính trị và kinh tế của các nhà nước-dân tộc trong 40 năm qua. Các số liệu thống kê, chi phối các cuộc tranh luận chính trị, phần lớn là các số liệu mang tính quốc gia: mức độ nghèo đói, thất nghiệp, GDP, nhập cư thuần. Nhưng vị trí địa lý của chủ nghĩa tư bản đang bị lôi kéo theo những hướng có phần nào đó khác nhau. Rõ ràng toàn cầu hóa đã không làm cho vị trí địa lý không thích hợp. Trong nhiều trường hợp, nó đã làm cho vị trí của hoạt động kinh tế quan trọng hơn, làm trầm trọng thêm sự bất bình đẳng giữa những địa danh thành công (như London hay San Francisco) và những địa danh kém thành công (như phía đông bắc nước Anh hoặc vành đai rỉ sét của Hoa Kỳ). Đơn vị then chốt theo địa lý không còn là nhà nước-dân tộc nữa. Thay vào đó, đó là các thành phố, vùng miền hoặc khu đô thị cá lẻ lân cận đang tăng lên và giảm xuống.
Quốc gia lý tưởng của thời kỳ Khai sáng như là một cộng đồng đơn nhất, gắn kết với nhau bởi một khung đo lường chung, là điều ngày càng khó duy trì. Khi bạn sống ở một trong những thị trấn trong vùng thung lũng Welsh, từng phụ thuộc vào các việc làm sản xuất thép hoặc khai thác mỏ, và khi các chính trị gia nói về mức độ “hoạt động tốt” của “nền kinh tế”, thì điều đó có nhiều khả năng làm sản sinh thêm nhiều sự bất mãn. Từ quan điểm đó, thuật ngữ “GDP” không có khả năng nắm bắt được bất cứ điều gì có ý nghĩa hoặc đáng tin cậy.
Khi kinh tế học vĩ mô được sử dụng để hậu thuẫn cho một lập luận chính trị, thì điều này hàm ý rằng những thiệt hại trong một phần của đất nước được bù đắp bởi những lợi ích ở một nơi khác. Các chỉ báo quốc gia thu hút sự chú ý, chẳng hạn như GDP và lạm phát, che đậy tất cả các loại lợi ích và tổn thất cục bộ ít được các chính trị gia quốc gia thảo luận. Vấn đề nhập cư có thể tốt cho nền kinh tế nói chung, nhưng điều này không có nghĩa là không hề có chi phí nào cả cho địa phương. Do đó, khi các chính trị gia sử dụng các chỉ báo quốc gia để biện minh việc họ làm là đúng, thì họ ngầm giả định cử tri có một tinh thần yêu nước hy sinh cho nhau: bạn có thể là người thua cuộc trong dịp này, nhưng trong thời gian tới bạn có thể là người thụ hưởng. Nhưng điều gì sẽ xảy ra nếu tình thế không bao giờ đảo ngược? Điều gì sẽ xảy ra nếu cùng một thành phố hoặc vùng miền đó luôn giành thắng lợi, trong khi những thành phố hoặc vùng miền khác thì luôn thất bại? Chúng ta sẽ dựa vào nguyên tắc nào để biện minh cho quan hệ có qua có lại này?
Tại châu Âu, liên minh tiền tệ đã làm vấn đề này thêm gay gắt. Những chỉ báo quan trọng đối với Ngân hàng Trung ương châu Âu (ECB), ví dụ, là những chỉ báo đại diện cho một nửa tỷ người. ECB quan tâm đến tỷ lệ lạm phát hay tỷ lệ thất nghiệp trong toàn khu vực các nước sử dụng đồng tiền chung châu Âu, như thể đó là một vùng lãnh thổ đồng nhất và đơn nhất, cùng lúc số phận của người dân châu Âu về mặt kinh tế lại phân mảnh theo nhiều hướng khác nhau, tùy thuộc vào vùng miền, thành phố hoặc vùng lân cận mà họ đang sống. Kiến thức chính thức càng trở nên trừu tượng hơn so với kinh nghiệm sống, cho đến khi kiến thức này đơn giản không còn phù hợp hoặc đáng tin nữa.
Ưu tiên cho quốc gia, như là một cấp độ thước đo phân tích tự nhiên, là một trong những định kiến vốn có của thống kê học mà những năm tháng thay đổi kinh tế đã phá hủy từ từ. Một định kiến vốn có khác đang ngày càng bị thử thách là phương pháp phân loại. Một phần công việc của các nhà thống kê là phân loại người dân bằng cách đưa họ vào một loạt các khung mà các nhà thống kê đã tạo ra: có việc làm hay thất nghiệp, đã lập gia đình hay chưa có gia đình, có tư tưởng ủng hộ Âu hay chống lại châu Âu. Chừng nào người dân còn được đặt vào những khung theo cách trên, thì người ta thấy rõ một phân loại nhất định có thể được mở rộng tới mức nào trên toàn thể dân số.
Điều này có thể kéo theo những lựa chọn có phần nào đó bị thu hẹp. Để được tính là người thất nghiệp, ví dụ, một người phải báo cáo cho cuộc khảo sát rằng họ không tự nguyện thất nghiệp, một điều thậm chí có thể còn phức tạp hơn trong thực tế. Lúc nào cũng có rất nhiều người kiếm được việc và rất nhiều người thất nghiệp, vì nhiều lý do có thể có, từ những lý do liên quan đến sức khỏe và nhu cầu của gia đình đến các điều kiện của thị trường lao động. Nhưng nhờ vào cách đơn giản hóa này, người ta có thể xác định tỷ lệ thất nghiệp trên toàn dân số nói chung.
Dữ liệu thống kê chỉ đáng tin nếu người dân chấp nhận những phạm vi hạn chế về nhân khẩu học được cung cấp
Tuy vậy, cũng có một vấn đề. Điều gì sẽ xảy ra nếu không thể giải quyết nhiều vấn đề xác định thời đại của chúng ta bằng phạm vi người dân được tính đến mà bằng cường độ người dân bị tác động? Tình trạng thất nghiệp là một ví dụ. Việc nước Anh vượt qua cuộc Đại suy thoái từ năm 2008 đến năm 2013, trong khi về cơ bản tỷ lệ thất nghiệp không tăng, thường được xem là một thành tựu tích cực. Nhưng tập trung chú ý vào “thất nghiệp” che giấu sự gia tăng của tình trạng thiếu việc làm, đó là người dân không có đủ việc làm hoặc đang làm một công việc ở mức độ thấp hơn khả năng của họ. Hiện tượng này hiện đang chiếm khoảng 6% lực lượng lao động “có việc làm”. Tiếp đến là sự gia tăng của lực lượng lao động tự làm chủ, làm cho sự phân chia thành “người có việc làm” và “người thất nghiệp không tự nguyện” là không mấy ý nghĩa.
Đây không phải là một lời phê phán các cơ quan như Văn phòng Thống kê Quốc gia (ONS), mà hiện nay đang tính toán các số liệu về tình trạng thiếu việc làm. Nhưng chừng nào các chính trị gia còn tiếp tục làm chệch hướng sự phê phán bằng cách viện dẫn tỷ lệ thất nghiệp, thì kinh nghiệm của những người đấu tranh để có đủ việc làm hoặc sống nhờ vào tiền lương không được đại diện trong các cuộc tranh luận công cng. Điều này không có gì đáng ngạc nhiên khi chính những người này trở nên nghi ngờ các chuyên gia về chính sách và việc sử dụng các số liệu thống kê trong các cuộc tranh luận chính trị, căn cứ vào sự không khớp nhau giữa những gì các chính trị gia nói về thị trường lao động và thực tế cuộc sống.
Sự nổi lên của các phong trào bản sắc chính trị kể từ những năm 1960 đã làm tăng thêm tình trạng căng thẳng về những hệ thống phân loại như vậy. Dữ liệu thống kê chỉ đáng tin nếu người dân chấp nhận số hạn chế những phạm trù về dân số học được cung cấp, được các chuyên gia lựa chọn chớ không phải bởi những người trả lời khảo sát. Nhưng khi bản sắc trở thành một vấn đề chính trị, thì người dân yêu cầu được tự xác định những điều kiện của riêng họ, khi liên quan đến vấn đề giới tính, tình dục, chủng tộc hay giai cấp.
Cuộc điều tra dư luận có thể cũng bị tổn thương vì những lý do tương tự. Theo truyền thống, các cuộc điều tra dư luận nắm bắt thái độ và sở thích của người dân, trên cơ sở sự giả định hợp lý cho rằng người dân sẽ cư xử phù hợp với điều đã được nhắc đến. Nhưng trong thời đại  mức độ tham gia chính trị suy giảm, thì việc biết rằng ô nào được ai đó đánh dấu “X” là chưa đủ. Người ta còn cần phải biết liệu dân có cảm thấy đủ mạnh để bõ công làm điều như vậy. Và khi nói đến việc nắm bắt những biến động về cường độ cảm xúc như vậy, thì điều tra dư luận là một công cụ vụng về.
Thống kê học đã phải thường xuyên đối mặt với sự phê phán suốt lịch sử lâu dài của nó. Những thách thức mà bản sắc chính trị và toàn cầu hóa mang đến cũng không phải là điều mới đối với thống kê học. Vậy tại sao những sự kiện của năm qua được cảm nhận là gây tác hại đến thế cho lý tưởng của việc đánh giá định lượng của chuyên gia và vai trò của đánh giá này trong các cuộc tranh luận chính trị?
Trong những năm gần đây, một phương pháp mới định lượng và hình dung các quần thể đã xuất hiện, có nhiều khả năng đẩy thống kê học ra bên lề, báo hiệu một thời đại khác hoàn toàn. Thống kê học, được các chuyên gia kỹ thuật thu thập và biên soạn, đang nhường đường cho dữ liệu được tích lũy một cách mặc định, như một hệ quả của kỹ thuật số hóa sâu rộng. Theo truyền thống, các nhà thống kê biết những câu hỏi nào mà họ muốn hỏi liên quan đến dân số nào, rồi lên kế hoạch để có các câu trả lời. Ngược lại, dữ liệu sẽ tự động tạo ra bất cứ lúc nào khi chúng ta quẹt một thẻ khách hàng trung thành, bình luận trên Facebook hay tìm kiếm một điều gì đó trên Google. Khi các thành phố, xe hơi, nhà cửa và vật dụng gia đình được kết nối bằng kỹ thuật số, thì khối lượng dữ liệu mà chúng ta để lại dấu vết càng phát triển lớn hơn bao giờ hết. Trong thế giới mới này, dữ liệu được thu thập trước, rồi mới đến câu hỏi khảo sát.
Về lâu dài, hệ lụy của việc này chắc chắn sẽ rất sâu sắc như việc phát minh ra thống kê học vào cuối những năm của thế kỷ 17. Sự nổi lên của “dữ liệu lớn” đã tạo ra những cơ hội lớn hơn nhiều cho phân tích định lượng so với bất kỳ số lượng điều tra dư luận hay kỹ thuật mô hình hóa thống kê nào. Nhưng điều khác biệt không chỉ là khối lượng dữ liệu. Dữ liệu lớn còn tượng trưng cho một loại kiến thức hoàn toàn khác, đi kèm với một phương thức đánh giá chuyên gia mới.
Thứ nhất, dữ liệu lớn không giới hạn một cấp độ phân tích cố định (chẳng hạn như quốc gia) hay bất kỳ phân loại cụ thể nào (chẳng hạn như “người thất nghiệp”). Những tập hợp rộng lớn các dữ liệu mới này có thể được khai thác để tìm kiếm các mô thức, xu hướng, tương quan và tâm trạng mới nổi. Nó trở thành một cách để theo dõi những bản sắc mà con người tự n cho chính mình (chẳng hạn như “#ImwithCorbyn” hay “doanh nhân”) thay vì áp đặt những phân loại nào đó cho họ. Đây là một hình thức tổng gộp phù hợp với một thời đại chính trị lỏng lẻo, trong đó không phải mọi thứ đều có thể quy chiếu một cách đáng tin về một số lý tưởng của nhà nước-dân tộc của thời kỳ Khai sáng như là người giám hộ lợi ích công cộng.
Thứ hai, phần lớn trong chúng ta đều hoàn toàn mù tịt về tất cả những gì mà dữ liệu này nói về chúng ta, về mặt cá thể hoặc tập thể. Không có một cơ quan nào tương đương với Văn phòng Thống kê Quốc gia đối với các dữ liệu lớn được thu thập về mặt thương mại. Chúng ta đang sống trong một thời đại mà trong đó cảm xúc, bản sắc và quan hệ của chúng ta có thể được theo dõi và phân tích với tốc độ và sự nhạy cảm chưa từng có – nhưng không có cái gì neo được khả năng mới này vào lợi ích của công cng hay tranh luận công cng. Có những nhà phân tích dữ liệu làm việc cho Google và Facebook, nhưng họ không phải là những “chuyên gia” theo kiểu người tạo ra các số liệu thống kê và hiện đang bị lên án trên diện rộng. Sự khuyết danh và bí mật của những nhà phân tích [dữ liệu] mới có khả năng làm cho họ có quyền lực lớn hơn rất nhiều so với bất cứ nhà khoa học xã hội nào về mặt chính trị.
Một công ty như Facebook có khả năng nghiên cứu khoa học xã hội định lượng về hàng trăm triệu người, với chi phí rất thấp. Nhưng nó có rất ít động cơ để tiết lộ kết quả. Trong năm 2014, khi các nhà nghiên cứu của Facebook công bố kết quả của một nghiên cứu về “sự lây lan cảm xúc” mà họ đã thực hiện trên người sử dng – trong đó họ thay đổi tin tức cập nhật để xem nó ảnh hưởng như thế nào đến nội dung mà sau đó người sử dng đã chia sẻ để đáp lại – kết quả là đã có một làn sóng phản đối về việc người sử dụng Faceboook đã bị thử nghiệm mà không hề hay biết. Vì vậy, từ quan điểm của Facebook, tại sao phải quan tâm đến những rắc rối phức tạp của việc công bố kết quả? Tại sao không giới hạn vào việc nghiên cứu và giữ im lặng?
Dominic Cummings (1971- )

Điều có ý nghĩa nhất về mặt chính trị là mức độ dễ dàng trong việc hòa hợp với sự trỗi dậy của chủ nghĩa dân túy của sự thay đổi từ logic của thống kê học sang logic của dữ liệu. Các nhà lãnh đạo theo chủ nghĩa dân túy có thể khinh khi các chuyên gia truyền thống, chẳng hạn như các nhà kinh tế và các nhà thăm dò dư luận, trong khi tin vào một hình thức phân tích số học hoàn toàn khác. Các chính trị gia này dựa vào một giới tinh hoa mới, ít xuất hiện hơn, những người đi tìm các mô thức từ các ngân hàng dữ liệu rộng lớn, nhưng hiếm khi thực hiện bất kỳ tuyên bố nào, huống chi là công bố bất kỳ bằng chứng nào. Các nhà phân tích dữ liệu này thường là những nhà vật lý học hoặc toán học, mà kỹ năng hoàn toàn không được phát triển để nghiên cứu về xã hội. Đó là, ví dụ, thế giới quan được truyền bá bởi Dominic Cummings, cựu cố vấn của Michael Gove và giám đốc của chiến dịch Bỏ phiếu Rời khỏi [Liên minh châu Âu]. “Vật lý học, toán học và khoa học máy tính là lĩnh vực của những chuyên gia thực thụ, không giống như các nhà dự báo kinh tế vĩ mô”, theo lập luận của Cummings.

Steve Bannon (1953- )

Những nhân vật thân cận với Donald Trump, chẳng hạn như Steve Bannon, chiến lược gia trưởng của ông và nhà tỷ phú của Silicon Valley Peter Thiel, rất quen với các kỹ thuật mũi nhọn của phân tích dữ liệu, thông qua những công ty như Cambridge Analytica, mà Bannon là một thành viên của hội đồng quản trị. Trong chiến dịch tranh cử tổng thống, Cambridge Analytica đã dựa vào nhiều nguồn dữ liệu khác nhau để phát họa các hình dạng tâm lý của hàng triệu người Mỹ, mà sau đó được sử dụng để giúp Trump lựa chọn các cử tri mục tiêu với những tin nhắn phù hợp.

Khả năng phát triển và cải tiến những hiểu biết về tâm lý trên các quần thể rộng lớn là một trong những tính năng sáng tạo và gây tranh cãi nhất của kĩ thuật phân tích mới các dữ liệu. Khi các kỹ thuật “phân tích tình cảm”, phát hiện tâm trạng của một lượng lớn người dân bằng các chỉ báo theo dõi như việc sử dụng từ ngữ trên các phương tiện truyền thông xã hội, được kết hợp chặt chẽ trong các chiến dịch vận động chính trị, thì sự lôi cuốn cảm xúc của những nhân vật như Trump sẽ trở thành đối tượng củasự khảo sát khoa học. Trong một thế giới mà những cảm xúc chính trị của công chúng đang trở thành điều có thể theo dõi được, thì ai cần đến các nhà thăm dò dư luận?
Rất ít những phát hiện xã hội từ hình thức phân tích dữ liệu này kết thúc trong lĩnh vực công cộng. Điều này có nghĩa là nó giúp rất ít trong việc neo các tự sự chính trị vào một thực tế bất kỳ nào được chia sẻ. Với sự suy yếu của quyền lực thống kê, và khi không có cái gì thay thế nó trong lĩnh vực công cộng, thì người dân có thể sống trong bất cứ một cộng đồng tưởng tượng nào mà họ cảm thấy phù hợp nhất và sẵn sàng đặt niềm tin vào nhất. Khi thống kê học có thể được sử dụng để chỉnh sửa những yêu sách sai lầm về mặt kinh tế hay xã hội hay dân số, thì trong thời đại phân tích dữ liệu,sẽ có rất ít cơ chế để ngăn chặn người dân buông thả để phản ứng theo bản năng hay theo những định kiến nặng cảm tính của họ. Ngược lại, những công ty như Cambridge Analytica xử lý những cảm xúc nói trên như là những điều cần theo dõi.
Nhưng ngay cả khi có một Văn phòng phân tích dữ liệu, đại diện cho công chúng và chính phủ như Văn phòng Thống kê Quốc gia (ONS) hiện tại, thì cũng không rõ liệu nó có cung cấp loại quan điểm trung lập mà những người theo chủ nghĩa tự do ngày nay đang đấu tranh để bảo vệ không. Bộ máy tính toán siêu tốc mới rất thích hợp để phát hiện các xu hướng, hiểu được tâm trạng và nhận ra sự việc khi chúng nổi lên. Nó phục vụ rất tốt cho các nhà quản lý chiến dịch và các nhà tiếp thị. Nó ít phù hợp với việc đưa ra những kiểu yêu sách rõ ràng, khách quan, có khả năng hình thành sự đồng thuận về các vấn đề xã hội mà các nhà thống kê và các nhà kinh tế đã làm.
Trong môi trường kỹ thuật và chính trị mới này, giới tinh hoa mới về kỹ thuật số sẽ chịu trách nhiệm xác định những sự kiện, dự đoán và sự thật giữa dòng thác mà các dữ liệu đưa đến. Cho dù các chỉ báo như GDP và tỷ lệ thất nghiệp vẫn tiếp tục được xem là có ảnh hưởng về mặt chính trị, hay không, thì điều này cũng không nhất thiết báo trước sự kết thúc của các chuyên gia, huống hồ gì sự kết thúc của chân lý. Câu hỏi đặt ra một cách nghiêm túc hơn, là bây giờ khi mà con số đang được liên tục tạo ra sau lưng chúng ta và vượt xa kiến ​​thc ca chúng ta, thì cuc khng hong v thống kê học sẽ bỏ rơi nền dân chủ đại diện ở đâu.
Tim Berners-Lee (1955- )

Một mặt, chúng ta phải thừa nhận năng lực phản công của các định chế chính trị lâu đời. Cũng giống như các nền tảng của một “nền kinh tế chia sẻ” như Uber và Airbnb gần đây đã bị cản trở bởi những quyết định mang tính pháp lý (Uber bị buộc phải công nhận các lái xe như là nhân viên của mình, Airbnb bị một số chính quyền địa phương cấm hoàn toàn), thì pháp luật về quyền riêng tư và nhân quyền biểu trưng một chướng ngại tiềm tàng cho việc mở rộng các phân tích dữ liệu. Điều chưa rõ là những lợi ích của việc phân tích kỹ thuật số có thể được cung cấp cho công chúng như thế nào, có giống cách của các tập dữ liệu thống kê không. Những định chế như Viện dữ liệu mở (Open Data Institute), do Tim Berners-Lee đồng sáng lập, vận động để công chúng tiếp cận được dữ liệu một cách công khai, nhưng lại có rất ít ảnh hưởng trên các tập đoàn, nơi mà hiện nay có rất nhiều dữ liệu của chúng ta được tập hợp. Thống kê học ra đời như là một công cụ mà thông qua đó nhà nước có thể quan sát xã hội, nhưng dần dần phát triển thành một cái gì đó mà các học giả, các công dân hoạt động cải cách và các doanh nghiệp thấy được quyền lợi mình trong đó. Nhưng đối với nhiều doanh nghiệp về phân tích dữ liệu, bảo mật các phương pháp và các nguồn dữ liệu là một lợi thế cạnh tranh mà họ sẽ không tự nguyện từ bỏ.

Một xã hội hậu thống kê là một đề xuất có tiềm năng đáng sợ, không phải bởi vì nó thiếu hoàn toàn mọi hình thức về chân lý hay đánh giá chuyên môn, mà bởi vì nó sẽ tư nhân hóa cách hình thức trên một cách mạnh mẽ. Thống kê học là một trong nhiều cột trụ của chủ nghĩa tự do, quả nhiên là của thời kỳ Khai sáng. Các chuyên gia đã tạo ra và sử dụng nó đã bị tô điểm thành những người ngạo mạn và mù tịt về các chiều kích cảm xúc và cục bộ của chính trị. Chúng ta không nghi ngờ  các cách thức thu thập dữ liệu có thể được điều chỉnh để phản ánh tốt hơn các kinh nghiệm sống. Nhưng cuộc chiến cần được tiến hành trong dài hạn không phải là cuộc chiến giữa một nền chính trị dựa vào sự kiện do giới tinh hoa dẫn đầu với một nền chính trị dân túy dựa vào cảm xúc. Đó là cuộc chiến giữa những người còn cam kết với kiến ​​thc công cng và tranh lun công cng vi nhng người hưởng li t s tan rã đang din ra ca nhng cam kết ấy
William Davies

William Davies là nhà xã hội học và nhà kinh tế học chính trị. Các cuốn sách của ông bao gồm The Limits of Neoliberalism [Những hạn chế của chủ nghĩa tân tự do] và The Happiness Industry [Công nghiệp Hạnh phúc].

Huỳnh Thiện Quốc Việt dịch

 

Bảy sai lầm chết người khi hiểu sai về thống kê và cách tránh chúng

Bảy sai lầm chết người khi hiểu sai về thống kê và cách tránh chúng

(Nguồn: http://vienthongke.vn)

Thống kê là một công cụ hữu ích để tìm hiểu về các mô hình trong thế giới xung quanh chúng ta. Nhưng sự hiểu biết bằng trực giác thường khiến chúng ta dễ dãi hơn khi giải thích những mô hình đó. Trong bài viết này, chúng tôi sẽ chỉ ra một số sai lầm phổ biến thường mắc phải và cách tránh chúng khi đề cập đến số liệu thống kê, xác suất và rủi ro.

1. Giả sử những khác biệt nhỏ là có ý nghĩa

Các biến động hàng ngày trên thị trường chứng khoán biểu thị cho cơ hội, may rủi hơn là một điều gì đó có ý nghĩa. Sự khác biệt trong các cuộc thăm dò ý kiến khi một bên (mã cổ phiếu) vượt lên một hoặc hai điểm thường chỉ là thông tin nhiễu trong thống kê.

Bạn có thể tránh đưa ra các kết luận sai lầm về nguyên nhân của các biến động, bằng cách yêu cầu được xem “phạm vi sai số” liên quan đến các số liệu.

Nếu những khác biệt nhỏ hơn phạm vi sai số, đó là sự khác biệt không có ý nghĩa, và sự biến thiên có thể chỉ là các biến động ngẫu nhiên.

2. Ý nghĩa thống kê tương đương với ý nghĩa thực tế

Chúng ta thường khái quát hóa về sự khác biệt giữa hai nhóm như thế nào, chẳng hạn như thể lực phụ nữ thường yếu hơn so với nam giới.

Những khác biệt này thường dựa trên những định kiến và kinh nghiệm dân gian, nhưng lại bỏ qua sự tương đồng của những người giữa hai nhóm, và những khác biệt của những người trong cùng một nhóm.

Nếu bạn chọn ngẫu nhiên hai người đàn ông, có thể có khá nhiều khác sự biệt giữa họ về mặt thể lực. Nếu bạn chọn một người đàn ông và một phụ nữ, có thể hai người được nuôi dưỡng tương tự nhau, hoặc có thể người đàn ông được nuôi dưỡng tốt hơn người phụ nữ.

Hình 1: Các biểu đồ sai số minh họa mức độ không chắc chắn trong một điểm. Khi phạm vi sai số trùng nhau, sự khác biệt có thể là do thông tin nhiễu trong thống kê.

Bạn có thể tránh được lỗi này bằng cách hỏi về “hệ số ảnh hưởng” của những sự khác biệt giữa các nhóm. Đây là công cụ đo lường sự khác nhau về mức độ trung bình giữa hai nhóm.

Nếu hệ số ảnh hưởng nhỏ, thì có thể đưa ra kết luận là hai nhóm khá tương đồng. Ngay cả khi hệ số ảnh hưởng lớn, vẫn có nhiều cá thể tương đồng giữa hai nhóm, không phải tất cả thành viên của nhóm này đều sẽ khác biệt với tất cả thành viên của nhóm khác.

3. Không chú ý đến các điểm cực trị

Mặt khác, hệ số ảnh hưởng có liên quan khi bạn tập trung vào “phân phối chuẩn” (còn được gọi là “đường cong hình chuông”). Đây là vùng mà hầu hết mọi giá trị đều ở gần điểm trung bình và chỉ có một nhóm nhỏ nằm ở trên hoặc dưới mức trung bình.

Khi điều này xảy ra, một thay đổi nhỏ trong hoạt động của nhóm tạo ra sự bất thường, không có ảnh hưởng đến nhóm người ở mức trung bình (xem hình 2) nhưng lại tác động đến các giá trị ở những điểm cực trị rất lớn.

Chúng ta có thể tránh lỗi này bằng cách nhìn lại việc chúng ta có xem xét các điểm cực trị hay không. Khi bạn chỉ quan tâm đến nhóm người ở mức trung bình, sự khác biệt nhóm nhỏ thường không thành vấn đề. Khi bạn quan tâm đến các điểm cực trị, sự khác biệt nhóm nhỏ có thể trở nên rất quan trọng.

Hình 2: Trong hai tổng thể phân phối chuẩn, sự khác biệt giữa chúng sẽ rõ ràng hơn ở những điểm cực trị so với điểm trung bình.

4. Tin vào sự trùng hợp ngẫu nhiên

Bạn có biết rằng có sự tương quan giữa số người bị chết đuối mỗi năm tại Hoa Kỳ do ngã vào bể bơi và số lượng phim mà Nicholas Cage xuất hiện?

Nếu bạn đủ kiến thức bạn có thể tìm ra sự thú vị của mô hình về mối tương quan này, thực ra chỉ đơn thuần là do sự trùng hợp ngẫu nhiên.

Điều này xảy ra khi hai hiện tượng diễn ra cùng thời điểm, hoặc trong cùng một mô hình tương đồng nhau, không có nghĩa là chúng có liên quan đến nhau.

Tránh lỗi này bằng cách tìm hiểu mức độ liên kết quan sát được giữa các vấn đề có đáng tin cậy hay không. Nó chỉ xảy ra một lần hay diễn ra nhiều lần? Các mối liên hệ có thể dự đoán được trong tương lai không? Nếu bạn nhận thấy nó chỉ xảy ra một lần duy nhất, thì đó là sự tình cờ ngẫu nhiên.

Hình 3: Có tồn tại mối liên hệ nhân quả?

5. Xem xét ngược lại các nguyên nhân

Khi hai sự việc tương quan với nhau – ví dụ, các vấn đề về tình trạng thất nghiệp và bệnh tâm thần – có thể khiến chúng ta liên tưởng đến lối suy nghĩ nhân quả “hiển nhiên” là – hậu quả của bệnh tâm thần chính là tình trạng thất nghiệp.

Nhưng đôi khi mối quan hệ nhân quả xảy ra theo một cách khác, chẳng hạn như tình trạng thất nghiệp mới dẫn đến các vấn đề về sức khoẻ tâm thần.

Bạn có thể tránh được lỗi này bằng cách nhớ suy nghĩ về hướng ngược lại trong mối quan hệ nhân quả, khi bạn thấy một mối liên hệ xảy ra. Liệu ảnh hưởng có đi theo hướng khác không? Hoặc chúng có tác động lẫn nhau, tạo ra một vòng lặp thông tin phản hồi?

6. Bỏ quên việc đánh giá các nguyên nhân bên ngoài

Mọi người thường bỏ qua không đánh giá “các yếu tố thứ ba” hoặc các nguyên nhân bên ngoài có thể xảy ra tạo ra mối liên hệ giữa hai vấn đề mặc dù thực chất cả hai đều là kết quả của yếu tố thứ ba.

Ví dụ, có thể tồn tại mối liên hệ giữa việc ăn ở nhà hàng và sức khỏe tim mạch tốt hơn. Điều đó sẽ khiến bạn tin rằng có một sự liên hệ giữa hai sự việc này.

Tuy nhiên, có thể nghĩ ngay rằng những người có khả năng ăn ở nhà hàng đều đặn là những người nằm trong nhóm có điều kiện kinh tế cao, và họ cũng có điều kiện để chăm sóc sức khoẻ tốt hơn, trong đó bao gồm cả việc chú ý đến sức khỏe tim mạch nhiều hơn.

Bạn có thể tránh được lỗi này bằng cách nhớ hãy suy nghĩ về tác động của các yếu tố thứ ba khi nhìn nhận về một mối tương quan nào đấy. Nếu bạn quan tâm đến một vấn đề như là một nguyên nhân có thể xảy ra, hãy tự hỏi mình “cái gì, trong hoàn cảnh nào, gây ra điều đó? Có phải yếu tố thứ ba có thể cùng gây ra cả hai kết quả quan sát được không?”.

7. Biểu đồ dễ gây ra sự nhầm lẫn

Rất nhiều mối nguy hại xảy ra trong việc chia giá trị/tỷ lệ và ghi nhãn ở trục tung đồ thị. Việc ghi nhãn chỉ ra phạm vi đầy đủ ý nghĩa của bất cứ điều gì bạn đang nghiên cứu.

Nhưng đôi khi người tạo ra đồ thị lựa chọn một phạm vi hẹp hơn, nhằm tạo sự khác biệt nhỏ hoặc làm rõ sự liên hệ hiệu quả hơn. Trên thang đo từ 0 đến 100, hai cột có thể có cùng chiều cao. Nhưng nếu bạn sử dụng đồ thị có nguồn dữ liệu tương tự nhưng vùng chỉ hiển thị từ 52.5 đến 56.5, chúng có thể trông hoàn toàn khác biệt.

Hình 4: Các đồ thị cho thấy sự khác nhau nhiều hay ít phụ thuộc vào việc chia tỷ lệ

Bạn có thể tránh được lỗi này bằng cách chú ý phần nhãn ghi dọc theo các trục của biểu đồ. Hãy hoài nghi về bất cứ đồ thị nào không ghi nhãn.

Nhung Phạm (dịch)

Nguồn: https://phys.org/news/2017-03-deadly-statistical-misinterpretation.html

———————-&&&———————-

Ứng dụng của 7 công cụ thống kê trong vấn đề sản xuất

Ứng dụng của 7 công cụ thống kê trong vấn đề sản xuất

(Nguồn: http://pms.edu.vn)

Một trong các nguyên tắc của quản lý hiện đại là các quyết định phải dựa trên dựa trên sự kiện, dữ liệu, không được quyết định dựa trên cảm tính. Muốn vậy cần phải thu thập, thống kê, phân tích các dữ liệu riêng lẻ thành những thông tin, sự kiện thể hiện bản chất của vấn đề, từ đó sẽ có cách giải quyết nó.
7 công cụ thống kê (seven tools) đã được người Nhật lựa chọn và ứng dụng rất thành công từ sau chiến tranh thế giới lần thứ II. Từ đó việc áp dụng chúng càng rộng rãi và phổ biến trên toàn thế giới từ cải tiến công nghệ, thay thế nguyên liệu đến kiểm soát chất lượng.

1

Tại các doanh nghiệp vừa và nhỏ ở Việt Nam, việc áp dụng các công cụ thống kê trong kiểm soát chất lượng rất hạn chế hoặc không biết áp dụng. Sử dụng một hoặc nhiều trong số 7 công cụ, mỗi doanh nghiệp có thể phân tích các yếu tố trong quá trình để xác định vấn đề. Giá trị của các công cụ thống kê ở chỗ, nó đem lại những công cụ đơn giản nhưng hữu hiệu. Chúng có thể được sử dụng một cách độc lập hoặc kết hợp để xác định chính xác những điểm bất thường, các điểm thiếu kiểm soát và giảm thiểu những tác động của chúng trong quá trình sản xuất, kinh doanh.

Tóm lại, việc sử dụng các công cụ thống kê trong kiểm soát chất lượng đảm bảo cho việc quản lý chất lượng có căn cứ thực tế và khoa học khi ra quyết định. Sử dụng các công cụ thống kế giúp giải thích được tình hình quản lý chất lượng một cách đúng đắn, phát hiện kịp thời các nguyên nhân gây lỗi để có biện pháp điều chỉnh thích hợp.

13(39)
Chính nhờ những hiệu quả của chúng nên việc sử dụng 7 công cụ thống kê trong kiểm soát chất lượng trở thành một nội dung không thể thiếu trong quản lý chất lượng của mỗi doanh nghiệp, 7 công cụ đề cập ở đây bao gồm:

  1. Phiếu kiểm tra (Check sheet): được sử dụng cho việc thu thập dữ liệu. Dữ liệu thu được từ phiếu kiểm tra là đầu vào cho các công cụ phân tích dữ liệu khác, do đó đây bước quan trọng quyết định hiệu quả sử dụng của các công cụ khác.
  2. Biểu đồ Pareto (Pareto chart): sử dụng các cột để minh họa các hiện tượng và nguyên nhân ảnh hưởng có tính đến tầm quan trọng của chúng đối với sản phẩm. Sử dụng biểu đồ này giúp cho quản lý biết được những nguyên nhân cần phải tập trung xử lý.
  3. Biểu đồ nhân quả (Cause-effect diagram): giúp liệt kê những nguyên nhân có thể có dẫn đến kết quả, từ đó giúp ra nguyên nhân của một vấn đề.
  4. Biểu đồ phân bố (Histogram): là một dạng của đồ thị cột trong đó các yếu tố biến động hay các dữ liệu đặc thù được chia thành các lớp hoặc thành các phần và được diễn tả như các cột với khoảng cách lớp được biểu thị qua đường đáy và tần suất biểu thị qua chiều cao. Biểu đồ dạng này được sử dụng để theo dõi sự phân bố thô của sản phẩm/quá trình, từ đó đánh giá được năng lực của quá trình đó, giúp phòng ngừa trước khi các vấn đề đó sảy ra.
  5. Biểu đồ kiểm soát (Control chart): là biểu đồ với các đường giới hạn đã được tính toán bằng phương pháp thống kê được sử dụng nhằm mục đích theo dõi sự biến động của các thông số về đặc tính chất lượng của sản phẩm, theo dõi những thay đổi của quy trình để kiểm soát tất cả các dấu hiệu bất thường xảy ra khi có dấu hiệu đi lên hoặc đi xuống của biểu đồ.
  6. Biểu đồ phân tán (Scatter diagram): Biểu đồ phân tán chỉ ra mối quan hệ giữa 2 biến trong phân tích bằng số, để giải quyết các vấn đề và xác định điều kiện tối ưu bằng cách phân tícḥ lượng mối quan hệ nhân quả giữa các biến số.
  7. Phương pháp phân vùng (Stratified diagram): Phân vùng thông thường để tìm ra nguyên nhân của khuyết tật.

Trong bối cảnh môi trường kinh tế cạnh tranh gay gắt hiện nay, bên cạnh việc đổi mới công nghệ, các doanh nghiệp, đặc biệt là các doanh nghiệp vừa và nhỏ cần chú trọng ứng dụng các công cụ quản lý để cải tiến, nâng cao năng suất chất lượng trong hoạt động sản xuất, kinh doanh. Vì đây là những công cụ hữu hiệu, đã được các doanh nghiệp của các nước phát triển như Nhật Bản Hàn Quốc, Mỹ … áp dụng và gặt hái được những thành công vượt trội về năng suất chất lượng.

——————-&&&——————-

Tuyên bố của ASA về ý nghĩa thống kê và trị số P

Tuyên bố của ASA về ý nghĩa thống kê và trị số P

(Nguồn: http://ibsgacademic.com)

Giới thiệu

Gia tăng định lượng trong nghiên cứu khoa học và phát triển các tập hợp dữ liệu lớn, phức tạp trong những năm gần đây đã mở rộng phạm vi ứng dụng của các phương pháp thống kê. Điều này đã tạo ra những hướng mới cho tiến bộ khoa học, nhưng nó cũng mang lại những lo ngại về kết luận rút ra từ dữ liệu nghiên cứu. Giá trị (validity) của kết luận khoa học, bao gồm cả khả năng tái lặp (reproducibility) của chúng, phụ thuộc nhiều hơn so với tự thân phương pháp thống kê. Các kỹ thuật thích hợp được lựa chọn, phân tích thực hiện đúng và giải thích chính xác của kết quả thống kê cũng đóng một vai trò quan trọng trong việc đảm bảo rằng kết luận là có cơ sở và sự không chắc chắn xung quanh chúng được trình bày một cách đúng đắn.

Làm cơ sở cho nhiều kết luận khoa học được công bố là khái niệm về “có ý nghĩa thống kê,” thường được đánh giá bằng một chỉ số được gọi là trị số p. Trong khi trị số p có thể là một phương pháp thống kê hữu ích, nó thường được sử dụng sai và hiểu sai. Điều này đã dẫn đến một số tạp chí khoa học không tán thành việc sử dụng trị số p, và một vài nhà khoa học và nhà thống kê đề nghị việc từ bỏ, với vài lập luận rằng không có thay đổi cơ bản nào kể từ khi trị số p lần đầu tiên được giới thiệu.

Trong văn bản này, Hiệp hội thống kê Mỹ (American Statistical Association, ASA) tin rằng cộng đồng khoa học có thể được hưởng lợi từ một tuyên bố chính thức làm sáng tỏ những nguyên tắc cơ bản được đồng thuận rộng rãi trong việc sử dụng thích hợp và giải thích trị số p. Các vấn đề được đưa ra ở đây không chỉ ảnh hưởng đến nghiên cứu, mà còn là kinh phí nghiên cứu, thực hành viết lách, phát triển nghề nghiệp, giáo dục khoa học, chính sách công, báo chí, và pháp luật. Tuyên bố này không tìm cách giải quyết tất cả các vấn đề liên quan đến thực hành thống kê cũng như những tranh cãi nền tảng. Thay vào đó, tuyên bố nêu rõ về một vài lựa chọn nguyên tắc phi kỹ thuật mà có thể cải thiện việc thực hiện hoặc diễn giải khoa học định lượng, theo sự đồng thuận rộng rãi trong cộng đồng thống kê.

Trị số p (P-value) là gì?

Một cách không chính thức, trị số p là xác suất theo một mô hình thống kê xác định và là một dữ liệu thống kê tóm tắt (ví dụ, sự khác biệt có ý nghĩa của mẫu giữa hai nhóm được so sánh) sẽ bằng hoặc cực đoan (extreme) hơn so với giá trị quan sát của nó.

Các nguyên tắc

  1. Trị số p có thể chỉ ra sự không tương thích các dữ liệu với một mô hình thống kê xác định ra sao.

Trị số p cung cấp một cách tiếp cận tổng hợp sự không tương thích giữa một tập hợp các dữ liệu và một mô hình đề xuất cho dữ liệu. Hình thức phổ biến nhất là một mô hình, được xây dựng theo một tập hợp các giả định, cùng với cái gọi là “giả thuyết không” (null hypothesis). Thường thì “giả thuyết không” mặc nhiên công nhận sự vắng mặt của một ảnh hưởng, chẳng hạn như không có sự khác biệt giữa hai nhóm, hoặc sự vắng mặt của mối quan hệ giữa các yếu tố và một kết quả. Trị số p càng nhỏ, sự không tương thích thống kê của các dữ liệu với các giả thuyết càng lớn, nếu các giả định cơ bản được sử dụng để tính toán trị số p nắm chắc. Sự không tương thích này có thể được hiểu như là sự kiểm định hoặc cung cấp bằng chứng chống lại “giả thuyết không” hoặc các giả định cơ bản.

  1. Trị số p không đo lường xác suất mà từ đó giả thuyết nghiên cứu là đúng, hoặc xác suất mà các dữ liệu đã được tạo ra bởi một sự xuất ngẫu nhiên một cách riêng lẻ.

Các nhà nghiên cứu thường muốn đưa trị số p vào tuyên bố về tính đúng đắn của một giả thuyết không, hoặc về xác suất mà sự xuất hiện ngẫu nhiên tạo ra các dữ liệu quan sát được. Trị số p không phải như vậy. Đó là một tuyên bố về dữ liệu liên quan với một sự diễn giải giả thuyết xác định, và không phải là một tuyên bố về sự diễn giải chính nó [giả thuyết].

  1. Các kết luận khoa học và quyết sách kinh tế hoặc chính sách không nên chỉ dựa vào trị số p vượt qua một ngưỡng cụ thể.

Những thực hành giảm bớt phân tích dữ liệu hoặc suy luận khoa học với các quy tắc “sáng tỏ” (Bright-line Rules) một cách máy móc (chẳng hạn như “p < 0.05”) để biện minh cho các tuyên bố hoặc kết luận khoa học có thể dẫn đến niềm tin sai lầm và việc đưa ra quyết định vô giá trị. Một kết luận không ngay lập tức trở thành “đúng” trên một mặt của sự phân chia và “sai” về mặt khác. Các nhà nghiên cứu nên mang nhiều yếu tố bối cảnh (contextual factor) vào nghiên cứu để truy tìm những kết luận khoa học, bao gồm các thiết kế nghiên cứu, chất lượng của các thang đo, các bằng chứng bên ngoài cho các hiện tượng được nghiên cứu, và tính hợp lệ của các giả định làm cơ sở cho việc phân tích dữ liệu. Những xem xét thực tế thường đòi hỏi tính nhị phân, quyết định “yes-no”, nhưng điều này không có nghĩa là trị số p riêng lẻ có thể đảm bảo rằng một quyết định là đúng hay sai. Việc sử dụng rộng rãi “ý nghĩa thống kê” (thường được hiểu là “p ≤ 0,05”) như một chứng thực để làm tuyên bố của một phát hiện khoa học (hay sự đúng đắn được ngầm hiểu) dẫn đến biến dạng đáng kể tiến trình khoa học.

  1. Suy luận hợp lý đòi hỏi tường trình đầy đủ và minh bạch

Trị số p và phân tích có liên quan không nên được báo cáo có chọn lọc. Tiến hành nhiều phân tích các dữ liệu và báo cáo chỉ với trị số p duy nhất (thường là vượt qua một ngưỡng quan trọng) ám chỉ rằng trị số p được báo cáo về cơ bản không thể sáng tỏ. Những kết quả đầy hứa hẹn do “lỗi suy luận” (Cherry-picking), còn được gọi bằng thuật ngữ như vét dữ liệu (data dreging), đuổi bắt ý nghĩa (significance chasing), truy vấn ý nghĩa (significance questing), suy luận có chọn lọc (selective inference) và “p-hacking” [tất cả các thuật ngữ này ám chỉ việc tìm mọi cách để đạt được p < 0.05], dẫn đến dư thừa giả tạo các kết quả có ý nghĩa về mặt thống kê trong các tài liệu được công bố và nên tránh một cách mạnh mẽ. Một nhu cầu không chính thức tiến hành nhiều kiểm định thống kê cho vấn đề này phát sinh: Bất cứ khi nào một nhà nghiên cứu chọn những gì để trình bày dựa trên kết quả thống kê, giải thích giá trị của những kết quả là bị tổn hại nghiêm trọng nếu người đọc không được thông báo về sự lựa chọn và cơ sở của nó. Các nhà nghiên cứu nên tiết lộ số lượng giả thuyết khám phá trong quá trình nghiên cứu, tất cả các quyết định thu thập dữ liệu, tất cả các phân tích thống kê được thực hiện và tất cả các trị số p được tính toán. Kết luận khoa học có giá trị dựa trên các trị số p và thống kê liên quan không thể được rút ra mà không biết ít nhất bao nhiêu phân tích được tiến hành, và làm thế nào những phân tích (bao gồm cả trị số p) đã được lựa chọn để báo cáo.

  1. Trị số p, hay ý nghĩa thống kê, không đo lường kích thước của một ảnh hưởng hoặc tầm quan trọng của kết quả.

Ý nghĩa thống kê không tương đương với ý nghĩa khoa học, con người, hoặc kinh tế. trị số p nhỏ hơn không nhất thiết phải bao hàm sự hiện diện của các ảnh hưởng lớn hơn hoặc quan trọng hơn, và trị số p lớn hơn không ám chỉ thiếu tầm quan trọng hoặc thậm chí không có ảnh hưởng. Bất kỳ tác động, dù nhỏ thế nào, có thể tạo ra một trị số p nhỏ nếu kích thước mẫu hoặc thang đo chính xác là đủ cao, và các ảnh hưởng lớn có thể tạo ra trị số p không mấy ấn tượng nếu kích thước mẫu nhỏ hoặc các thang đo là không chính xác. Tương tự như vậy, những tác động ước lượng giống hệt nhau sẽ có trị số p khác nhau nếu độ chính xác của các ước lượng khác nhau.

  1. Tự thân, trị số p không cung cấp một phép đo bằng chứng tốt về một mô hình hay giả thuyết.

Các nhà nghiên cứu nên nhận thấy rằng trị số p không kèm bối cảnh hoặc các bằng chứng khác thì cung cấp thông tin hạn chế. Ví dụ, một trị số p gần 0,05 đơn giản chỉ cung cấp bằng chứng yếu ớt bác bỏ giả thuyết không. Tương tự như vậy, một trị số p tương đối lớn không bao hàm bằng chứng ủng hộ giả thuyết không; nhiều giả thuyết khác có thể tương đương hoặc phù hợp hơn với các dữ liệu quan sát. Với những lý do này, phân tích dữ liệu không nên kết thúc với việc tính toán trị số p khi cách tiếp cận khác là phù hợp và khả thi.

Các phương pháp tiếp cận khác (Other approaches)

Theo quan điểm về sự lạm dụng thường xuyên và quan niệm sai lầm về trị số p, một số nhà thống kê có khuynh hướng bổ sung hoặc thậm chí thay thế trị số p với các cách tiếp cận khác. Chúng bao gồm các phương pháp nhấn mạnh tính toán qua thử nghiệm, chẳng hạn như khoảng tin cậy (confidence interval & credibility interval đều là khoảng tin cậy nhưng thuộc 2 trường phái thống kê khác nhau) hoặc khoảng dự báo (prediction interval); phương pháp Bayesian; các phép đo thay thế của bằng chứng, chẳng hạn như tỷ số  khả dĩ (likelihood ratio) hoặc các yếu tố Bayes; và các phương pháp khác như mô hình ra quyết định lý thuyết (decision-theoretic modeling) và tỷ lệ phát hiện sai (false discovery rate). Tất cả những phép đo và cách tiếp cận này dựa trên nhiều giả định hơn, nhưng chúng có thể tiếp cận trực tiếp hơn trong việc xác định kích thước của một ảnh hưởng (và sự không chắc chắn liên quan của nó) cho dù giả thuyết là đúng.

Kết luận

Thực hành thống kê tốt, như là một phần thiết yếu của thực hành khoa học tốt, nhấn mạnh nguyên tắc của thiết kế nghiên cứu và tiến hành tốt, một loạt các tóm tắt các dữ liệu dạng số và đồ họa, sự hiểu biết về các hiện tượng được nghiên cứu, giải thích kết quả trong bối cảnh, tường trình đầy đủ, hợp logic và hiểu biết định lượng của những gì tóm tắt dữ liệu có ý nghĩa. Không nên có chỉ số duy nhất nào thay thế cho lý luận khoa học.

Ghi nhận: Ban Điều hành ASA cảm ơn những người sau đây vì việc chia sẻ kinh nghiệm và quan điểm của mình trong sự phát triển bản tuyên bố. Tuyên bố không nhất thiết phản ánh quan điểm của tất cả những người này, và trong thực tế có một số quan điểm là đối lập với tất cả hoặc một phần của tuyên bố. Tuy nhiên, chúng tôi tri ân sâu sắc đối với những đóng góp của họ. Naomi Altman, Jim Berger, Yoav Benjamini, Don Berry, Brad Carlin, John Carlin, George Cobb, Marie Davidian, Steve Fienberg, Andrew Gelman, Steve Goodman, Sander Greenland, Guido Imbens, John Ioannidis, Valen Johnson, Michael Lavine, Michael Lew, Rod Little, Deborah Mayo, Chuck McCulloch, Michele Millar, Sally Morton, Regina Nuzzo, Hilary Parker, Kenneth Rothman, Don Rubin, Stephen Senn, Uri Simonsohn, Dalene Stangl, Philip Stark, Steve Ziliak.

Chuyển Ngữ: Vương Tuấn

Nguồn: ASA


Xem thêm: 10 hiểu lầm về trị số P trong khoa học

 

————————-&&&————————–

 

Độ tin cậy và Độ chính xác trong Nghiên cứu Định tính & Nghiên cứu Định lượng

Tìm hiểu Độ tin cậy và Độ chính xác trong Nghiên cứu Định tính

(Tác giả: Nahid Golafshani – Người dịch: Nguyễn Hoàng Mỹ Phương – Nguồn: http://sotaynghiencuu.blogspot.com)

Độ tin cậy và độ chính xác được sử dụng phổ biến trong nghiên cứu định lượng và giờ đây chúng đang được cân nhắc lại để sử dụng trong mẫuhình (paradigm) nghiên cứu định tính. Vì độ tin cậy và độ chính xác bắt nguồn từ quan điểm thực chứng (positivist perspective), do đó, chúng nênđược định nghĩa lại để sử dụng trong cách tiếp cận tự nhiên (naturalistic approach). Cũng giống n độ tin cậy và độ chính xác dùng trong nghiên cứu định lượng nhằm cung cấp bàn đạp để kiểm tra những gì mà hai thuật ngữ này muốn nói trong mẫu hình nghiên cứu định tính, kiểm tra chéo (triangulation) dùng trong nghiên cứu định lượng nhằm kiểm tra độ tin cậy và độ chính xác cũng có thể làm sáng tỏ một số cách để kiểm trahoặc tối đa hóa độ tin cậy và độ chính xác của nghiên cứu định tính. Do đó, độ tin cậy, độ chính xác và kiểm tra chéo, nếu chúng là những khái niệm nghiên cứu phù hợp, đặc biệt là từ góc nhìn định tính, phải được định nghĩa lại để phản ánh các cách phát hiện ra sự thật.

Từ khóa: Độ tin cậy, Độ chính xác, Kiểm tra chéo, Ý niệm (Construct), Định tính, và Định lượng

Bài viết này bàn về việc sử dụng độ tin cậy và độ chính xác trong mẫuhình nghiên cứu định tính. Đầu tiên sẽ thảo luận ý ​​nghĩa của nghiên cứu định lượng và định tính. Thứ hai, thảo luận độ tin cậy và độ chính xác dùng trong nghiên cứu định lượng như là bàn đạp để kiểm tra những gì mà hai thuật ngữ nàymuốn nói và cách chúng được kiểm tra trong mẫu hình nghiên cứu định tính. Bài viết kết luận bằng việc dùng kiểm tra chéo trong hai mẫu hình (định lượng và định tính) cho thấy những thay đổi này có ảnh hưởng như thế nào đến sự hiểu biết của chúng ta về độ tin cậy, độ chính xác và kiểm tra chéo trong các nghiên cứu định tính.

Nghiên cứu Định lượng là gì?

            Nhà nghiên cứu sử dụng nghiên cứu thực chứng logic hoặc nghiên cứuđịnh lượng sẽ dùng các phương pháp thí nghiệm (experimental methods) vàphương pháp định lượng để kiểm tra những giả thuyết được tổng quát hóa(Hoepfl, 1997), và họ cũng nhấn mạnh việc đo lường và phân tích mối quan hệnhân quả giữa các biến (Denzin và Lincoln, 1998). Để minh họa ý nghĩa củanghiên cứu định lượng trong việc giải thích các vấn đề xã hội, Bogdan và Biklen(1998) lưu ý:
Biểu đồ và đồ thị minh họa các kết quả của nghiên cứu, và các nhà bình luận dùng các từ như “biến”, “tổng thể” và “kết quả” như một phần từ vựng hàng ngày của họ… ngay cả khi chúng ta không bao giờ biết tất cảcác thuật ngữ này có nghĩa là gì …[nhưng] chúng ta biết rằng đây là một phần của quá trình nghiên cứu. Công trình nghiên cứu, sau đó sẽ được công bố rộng rãi, là một từ đồng nghĩa với nghiên cứu định lượng (tr.4).

Nghiên cứu định lượng cho phép người nghiên cứu làm quen với vấn đề hoặc khái niệm được nghiên cứu, và có thể tạo ra các giả thuyết sẽ được kiểm tra. Trong mẫu hình này: (1) nhấn mạnh vào sự kiện (facts) và nguyên nhân củahành vi (Bogdan & Biklen, 1998), (2) thông tin dưới dạng các con số có thểđược định lượng và tính toán, (3) phương pháp toán học là cách thức để phân tích các dữ liệu số và (4) kết quả cuối cùng được trình bày dưới dạng các thuật ngữ thống kê (Charles, 1995).

Nói chung, nghiên cứu định lượng “… được hỗ trợ bởi mẫu hình thực chứng hay mẫu hình khoa học, đưa chúng ta đến suy nghĩ rằng thế giới được tạobởi các sự kiện có thể quan sát, đo lường được” (Glesne & Peshkin, 1992, tr.6)mặc dù giả định cho rằng “sự kiện xã hội (social facts) là thực tại khách quan”và “các biến có thể… được xác định và các mối quan hệ có thể đo lường được”(tr.7) là có vấn đề. Khái niệm “đo lường” có nghĩa là tìm hiểu, chẳng hạn, vấn đề giáo dục bằng cách người quan sát sẽ thực hiện quá trình được gọi là “đo lường”thế giới vật chất (Crocker & Algina, 1986). Stevens (1946) định nghĩa đo lườnglà việc gán con số cho các đối tượng hoặc sự kiện theo nguyên tắc nào đó. Từcác định nghĩa này, ta có thể thấy đo lường nhất thiết phải khách quan, có thểđịnh lượng và có liên quan đến thống kê. Nói một cách đơn giản, đo lường là đang nói về các con số, dữ liệu khách quan.

Nhà nghiên cứu định lượng cố gắng phân chia và phân định hiện tượngthành các phạm trù (categories) phổ biến hoặc có thể đo lường được mà các loại này có thể được áp dụng cho tất cả các đối tượng hoặc tình huống tương tự hay mở rộng (Winter, 2000). Trong nỗ lực của mình, phương pháp của người nghiên cứu liên quan đến việc “sử dụng các biện pháp chuẩn sao cho các quan điểm và kinh nghiệm khác nhau của con người có thể đặt vừa vào một số giới hạn cácphạm trù tương ứng đã được xác định trước và được gán các con số” (Patton, 2001, tr.14 ). Ví dụ, một nhà nghiên cứu định lượng có thể chuẩn bị danh sách các hành vi sẽ được kiểm tra hoặc đánh giá bởi người quan sát bằng cách dùng lịch trình đã định trước hoặc con số (thang đo) như là công cụ trong phương pháp nghiên cứu của mình. Do đó, người nghiên cứu định lượng cần xây dựngcông cụ được quản lý bằng cách thức chuẩn hóa theo các thủ tục đã định trước.Nhưng câu hỏi đặt ra là công cụ đo lường có đo được những gì cần phải đo hay không. Theo nghĩa rộng nhất, ta sẽ tập trung vào việc kiểm tra (test) (Crocker &Algina, 1986) hoặc độ chính xác của công cụ. Tầm quan trọng của việc kiểm tra này là để đảm bảo khả năng nhân rộng hoặc lặp lại của kết quả.

Độ tin cậy  Độ chính xác trong Nghiên cứu Định lượng

            Độ tin cậy và độ chính xác là công cụ nhận thức cơ bản theo trường phái thực chứng

(Watling, theo Winter, 200, tr.7)

Độ tin cậy

Joppe (2000) định nghĩa độ tin cậy như sau:

… Mức độ mà tại đó kết quả không thay đổi theo thời gian và đại diện chính xác cho tổng thể được nghiên cứu được gọi là độ tin cậy và nếu kết quả nghiên cứu có thể được sao chép theo phương pháp luận tương tự,khi đó, công cụ nghiên cứu được xem là đáng tin cậy (tr.1).

Thể hiện trong trích dẫn này là ý tưởng nhân rộng hoặc lặp lại kết quả hoặc quan sát.

Kirk và Miller (1986) xác định ba kiểu độ tin cậy trong nghiên cứu định lượng: (1) mức độ mà tại đó phép đo vẫn giữ nguyên khi được lặp đi lặp lại; (2) sự ổn định của phép đo theo thời gian; và (3) sự giống nhau của các phép đo trong một khoảng thời gian nhất định (tr.41-42).

Charles (1995) vẫn bám vào ý tưởng cho rằng sự nhất quán – mà tại đócác mục [kiểm tra] trong bảng câu hỏi được trả lời hoặc điểm riêng lẻ vẫn còn tương đối giống nhau – có thể được xác định thông qua phương pháp kiểm tra-táikiểm tra (test-retest method) tại hai thời điểm khác nhau. Trên thực tế, thuộc tính này của công cụ được gọi là tính ổn định. Nếu chúng ta đang đề cập phép đo ổn định thì cũng nên đề cập tương tự đối với kết quả. Mức độ ổn định cao cho thấy mức độ tin cậy cao, có nghĩa là kết quả có thể lặp lại được. Joppe, (2000) phát hiện có vấn đề xảy ra đối với phương pháp kiểm tra-tái kiểm tra có thể làm cho công cụ không đáng tin cậy ở mức độ nào đó. Bà giải thích rằng phương pháp kiểm tra-tái kiểm tra có thể tùy thuộc vào cảm nhận của người trả lời đối với vấn đề mang tính chủ quan, và do đó ảnh hưởng đến các câu trả lời nhất định. Chúng ta không thể chắc chắn rằng những ảnh hưởng bên ngoài là không đổi, chẳng hạnnhư sự thay đổi của thái độ. Điều này có thể dẫn đến sự khác biệt trong các câu trả lời. Tương tự như vậy, Crocker và Algina (1986) lưu ý rằng khi người trả lờitrả lời một loạt các mục kiểm tra, số điểm thu được chỉ đại diện cho một mẫugiới hạn các hành vi. Kết quả là, điểm số có thể thay đổi bởi đặc trưng nào đócủa người trả lời, có thể dẫn đến sai sót trong đo lường. Những lỗi kiểu này sẽ làm giảm tính chính xác và tính nhất quán của công cụ và điểm kiểm tra. Do đó, trách nhiệm của người nghiên cứu là đảm bảo tính nhất quán và chính xác caocủa các bài kiểm ra và điểm số. Vì vậy, Crocker và Algina (1986) cho rằng, “người soạn bài kiểm tra có trách nhiệm trong việc trình bày độ tin cậy của điểm từ các bài kiểm tra của họ” (tr.106).

Mặc dù người nghiên cứu có thể chứng minh khả năng lặp lại và tínhnhất quán nội tại của công cụ nghiên cứu, và do đó, là độ tin cậy, bản thân công cụ có thể không được chấp nhận.

Độ chính xác

Các tiêu chuẩn truyền thống áp dụng cho độ chính xác có nguồn gốc từtruyền thống thực chứng, và ở chừng mực nào đó, trường phái chứng thực đượcđịnh nghĩa bởi lý thuyết về độ chính xác. Trong thuật ngữ thực chứng, độ chính xác nằm giữa, và là kết quả và đỉnh cao của các khái niệm kinh nghiệm khác – có thể kể một vài khái niệm đó như luật phổ quát, bằng chứng, khách quan, sự thật, thực tế, diễn dịch, suy luận, sự kiện và dữ liệu toán học (Winter, 2000).

Joppe (2000) đưa ra lời giải thích về độ chính xác trong nghiên cứu định lượng:

Độ chính xác xác định xem thực sự nghiên cứu có đo lường được cái mà nó dự định đo lường hay không hoặc tính chính xác của kết quả nghiên cứu như thế nào. Nói cách khác, công cụ nghiên cứu có cho phép bạn nhắm vào tâm điểm của đối tượng nghiên cứu hay không? Các nhà nghiên cứu nói chung xác định độ chính xác bằng cách hỏi một loạt các câu hỏi, và thường sẽ tìm kiếm câu trả lời trong các nghiên cứu của người khác (tr.1).

Wainer và Braun (1998) mô tả độ chính xác trong nghiên cứu định lượngnhư là “độ chính xác về ý niệm” (“construct validity”). Construct là khái niệm, ý tưởng, câu hỏi hoặc giả thuyết ban đầu dùng để xác định dữ liệu nào sẽ được thu thập và thu thập như thế nào. Họ cũng khẳng định rằng các nhà nghiên cứu định lượng tích cực sẽ gây ra hoặc ảnh hưởng đến sự tác động lẫn nhau giữa ý niệmvà dữ liệu để xác nhận công trình điều tra của họ, thường là bằng cách áp dụng bài kiểm tra hoặc quá trình khác. Theo ý nghĩa này, sự tham gia của các nhà nghiên cứu trong quá trình nghiên cứu sẽ làm giảm đáng kể độ chính xác của bài kiểm tra.

Các định nghĩa về độ tin cậy và độ chính xác trong phạm vi nghiên cứu định lượng cho thấy hai điểm: Thứ nhất, liên quan đến độ tin cậy, kết quả có thể nhân rộng hay không. Thứ hai, liên quan đến độ chính xác, phương tiện đolường có chính xác hay không và chúng đang thực sự đo lường cái mà chúng dự định đo lường hay không. Tuy nhiên, các khái niệm về độ tin cậy và độ chính xác dưới con mắt của nhà nghiên cứu định tính thì lại khác – họ khăng khăng cho rằng các khái niệm được định nghĩa về mặt định lượng này là chưa đầy đủ. Nói cách khác, các khái niệm được định nghĩa về mặt định lượng này có thể không áp dụng cho mẫu hình nghiên cứu định tính. Câu hỏi về khả năng nhân rộng kết quả không liên quan đến họ (Glesne & Peshkin, 1992), nhưng độ chính xác (Winter, 2000), độ tin cậy và khả năng chuyển giao (transferability) (Hoepf, 1997) cung cấp cách thức đánh giá kết quả của nghiên cứu định tính. Trong bối cảnh này, hai cách tiếp cận hay quan điểm nghiên cứu này cơ bản là các mẫuhình khác nhau (Kuhn, 1970).

Nghiên cứu Định tính là gì?

            Nghiên cứu định tính sử dụng cách tiếp cận tự nhiên (naturalistic approach) nhằm tìm hiểu các hiện tượng trong bối cảnh cụ thể, chẳng hạn như “thế giới thực [nơi] mà người nghiên cứu không cố gắng thao túng hiện tượngmà họ quan tâm (phenomenon of interest)” (Patton, 2001, tr.39). Nghiên cứu định tính, theo nghĩa rộng, có nghĩa là “bất kỳ loại nghiên cứu nào đưa ra các phát hiện không phải bằng phương pháp thống kê hoặc các phương pháp định lượng khác” (Strauss và Corbin, 1990, tr.17), thay vào đó, loại nghiên cứu này đưa ra các phát hiện từ bối cảnh thế giới thực nơi mà các “hiện tượng [mà họ] quan tâm phát triển một cách tự nhiên” (Patton, 2001, tr.39). Không giống nhưcác nhà nghiên cứu định lượng xác định nguyên nhân, dự đoán, và tổng quát hóacác phát hiện này, thay vào đó, các nhà nghiên cứu định tính làm sáng tỏ, tìmhiểu, và ngoại suy từ các tình huống tương tự (Hoepfl, 1997).

Phân tích định tính dẫn đến một loại kiến thức khác so với phân tích định lượng, vì một bên thì lập luận từ góc độ bản chất triết học nền tảng của mỗi mẫuhình, tận hưởng các cuộc phỏng vấn chi tiết và bên còn lại thì tập trung vào khả năng tương thích rõ ràng của các phương pháp nghiên cứu, “tận hưởng phần thưởng từ cả con số lẫn từ ngữ” (Glesne & Peshkin, 1992, tr.8). Điều này có nghĩa là các phương pháp chẳng hạn như phỏng vấn và quan sát chiếm ưu thếtrong mẫu hình (diễn giải) tự nhiên và bổ sung vào mẫu hình thực chứng (positive paradigm), nơi mà cuộc khảo sát được dùng theo mục đích ngược lại.Winter (2000) cho rằng trong khi các nhà nghiên cứu định lượng cố gắng táchbản thân mình ra khỏi quá trình nghiên cứu càng nhiều càng tốt thì các nhà nghiên cứu định tính lại chấp nhận sự tham gia và vai trò của họ trong nghiên cứu. Patton (2001) hỗ trợ ý tưởng về sự tham gia và “chìm” (immersion) vào nghiên cứu của người nghiên cứu bằng cách cho rằng thế giới thực có thể thay đổi và do đó, nhà nghiên cứu định tính nên có mặt trong những thay đổi này để ghi lại sự kiện trước và sau khi xảy ra thay đổi. Tuy nhiên, cả nhà nghiên cứuđịnh tính lẫn định lượng cần phải kiểm tra và chứng minh rằng nghiên cứu của họ là đáng tin cậy. Trong khi độ tin cậy trong nghiên cứu định lượng phụ thuộc vào việc xây dựng công cụ, thì trong nghiên cứu định tính, “các nhà nghiên cứu chính là công cụ” (Patton, 2001, tr.14). Vì vậy, có vẻ như khi các nhà nghiên cứuđịnh lượng nói đến độ chính xác và độ tin cậy của nghiên cứu, họ thường đề cậpđến một nghiên cứu nào đó là đáng tin cậy; trong khi độ tin cậy trong nghiên cứu định tính lại phụ thuộc vào khả năng và nỗ lực của người nghiên cứu. Mặc dù độ tin cậy và độ chính xác được xem xét riêng lẻ trong nghiên cứu định lượng, những thuật ngữ này lại không được xem riêng biệt trong nghiên cứu định tính. Thay vào đó, thuật ngữ này bao hàm cả, chẳng hạn như độ tin cậy, khả năng chuyển giao, và tính đáng tin cậy.

Độ tin cậy  Độ chính xác trong Nghiên cứu Định tính

            Để hiểu ý nghĩa của độ tin cậy và độ chính xác, thiết nghĩ cần phải trình bày các định nghĩa khác nhau về độ tin cậy và độ chính xác do nhiều nhà nghiên cứu định tính với các quan điểm khác nhau đưa ra.

Độ tin cậy

Mặc dù thuật ngữ “Độ tin cậy” là khái niệm dùng để kiểm tra hoặc đánh giá nghiên cứu định lượng nhưng ý tưởng này cũng thường được dùng trong tất cả các loại nghiên cứu. Nếu chúng ta xem ý tưởng kiểm tra là cách lấy thông tin thì sự kiểm tra quan trọng nhất của bất kỳ nghiên cứu định tính nào chính là chất lượng của nó. Một nghiên cứu định tính tốt có thể giúp chúng ta “hiểu được tình huống mà nếu không [có nó] sẽ khó hiểu hoặc mơ hồ” (Eisner, 1991, tr.58). Điều này lại liên quan đến khái niệm thế nào là một nghiên cứu định tính tốt khi mà độ tin cậy là khái niệm dùng để đánh giá chất lượng trong nghiên cứu định lượng với “mục đích giải thích” trong khi khái niệm chất lượng trong nghiên cứu định tính lại có mục đích “tạo ra sự hiểu biết/thông hiểu” (Stenbacka, 2001, tr.551). Sự khác biệt trong mục đích đánh giá chất lượng nghiên cứu trong định lượng và nghiên cứu định lượng là một trong những lý do mà khái niệm độ tin cậy là không thích hợp trong nghiên cứu định tính. Theo Stenbacka, (2001) “khái niệm độ tin cậy thậm chí còn gây hiểu lầm trong nghiên cứu định tính. Nếu độ tin cậy được xem là một tiêu chuẩn của nghiên cứu định tính, thì e là khá nhiều nghiên cứu sẽ không tốt” (tr.552).

Mặt khác, Patton (2001) cho rằng độ chính xác và độ tin cậy là hai yếu tốmà bất kỳ nhà nghiên cứu định tính nào cũng nên quan tâm trong khi thiết kếnghiên cứu, phân tích kết quả và đánh giá chất lượng nghiên cứu. Điều nàytương đương với câu hỏi “Làm thế nào người nghiên cứu có thể thuyết phụcđược rằng các phát hiện nghiên cứu của cuộc điều tra là đáng chú ý đến?”(Lincoln và Guba, 1985, tr.290). Để trả lời cho câu hỏi này, Healy và Perry(2000) khẳng định rằng chất lượng của một nghiên cứu trong mỗi mẫu hình nên được đánh giá bởi chính các thuật ngữ trong mẫu hình đó. Ví dụ, trong khi thuật ngữ Độ tin cậy và Độ chính xác là tiêu chí cần thiết để đánh giá chất lượng trongmẫu hình định lượng, thì trong mẫu hình định tính, các thuật ngữ Tính tin cậy(Credibility), Tính trung lập (Neutrality) hoặc Tính xác thực (Confirmability), Tính nhất quán (Consistency) hoặc Tính đáng tin (Dependability) và Khả năng áp dụng (Applicability) hoặc Khả năng chuyển giao (Transferability) phải là tiêu chí cần thiết để đánh giá chất lượng (Lincoln và Guba, 1985). Cụ thể hơn, vớithuật ngữ độ tin cậy trong nghiên cứu định tính, Lincoln và Guba (1985, tr.300) sử dụng “tính đáng tin” (“dependability”), trong nghiên cứu định tính thì từ nàyrất tương đồng với khái niệm “độ tin cậy” (“reliability”) trong nghiên cứu định lượng. Họ cũng nhấn mạnh “kiểm toán quá trình” (“inquiry audit”) (tr.317) là một trong những biện pháp có thể nâng cao tính đáng tin của nghiên cứu định tính. Biện pháp này có thể được dùng để kiểm tra tính nhất quán cho cả quá trìnhlẫn sản phẩm của nghiên cứu (Hoepfl, 1997). Trong bối cảnh đó, Clont (1992) vàSeale (1999) tán thành khái niệm tính đáng tin với khái niệm tính nhất quán hoặc độ tin cậy trong nghiên cứu định tính. Tính nhất quán của dữ liệu sẽ đạt được khicác bước nghiên cứu được xác nhận thông qua việc kiểm tra các mục như dữ liệu thô, sản phẩm thu nhỏ dữ liệu, và quá trình ghi chép (Campbell, 1996).

Để đảm bảo độ tin cậy trong nghiên cứu định tính, kiểm tra độ tin cậy là rất quan trọng. Seale (1999), trong khi phát hiện các nghiên cứu có chất lượng tốt thông qua độ tin cậy và độ chính xác trong nghiên cứu định tính, khẳng định rằng “tính đáng tin cậy của báo cáo nghiên cứu nằm ở trung tâm của các vấn đềthường được thảo luận – đó là độ chính xác và độ tin cậy” (tr.266). Khi đánh giá(kiểm tra) công trình nghiên cứu định tính, Strauss và Corbin (1990) cho rằng“tiêu chuẩn thông thường của “khoa học tốt”… đòi hỏi phải định nghĩa lại để phù hợp với thực tế của nghiên cứu định tính” (tr.250).

Ngược lại, Stenbacka (2001) lập luận rằng trong khi vấn đề độ tin cậy liên quan đến các phép đo lường thì nó lại không liên quan trong nghiên cứu định tính. Bà cho biết thêm vấn đề của độ tin cậy đó là việc không phù hợp trong đánh giá chất lượng của nghiên cứu định tính. Do đó, nếu nó được sử dụng thì khi đó “e rằng hậu quả là khá nhiều nghiên cứu không tốt” (tr.552).

Mở rộng phạm vi khái niệm hóa độ tin cậy và khám phá sự phù hợp củađộ tin cậy và dộ chính xác trong nghiên cứu định tính, Lincoln và Guba (1985)cho rằng: “Do không thể có độ chính xác mà không có độ tinh cậy, một sự chứng minh của khái niệm trước [độ chính xác] là đủ để thiết lập khái niệm sau [độ tin cậy]” (tr.316). Patton (2001) với mối quan tâm đến khả năng và kỹ năng của người nghiên cứu trong nghiên cứu định tính cũng cho rằng độ tin cậy là hệ quả của độ chính xác trong một nghiên cứu.

Độ chính xác

             Khái niệm độ chính xác được mô tả bằng một loạt các thuật ngữ trong nghiên cứu định tính. Khái niệm này không phải là một khái niệm duy nhất, cố định hoặc phổ quát mà là “khái niệm tùy thuộc (contingent construct), khôngtách khỏi nền tảng các quy trình và mục đích của phương pháp luận và dự ánnghiên cứu cụ thể” (Winter, 2000, tr.1). Mặc dù một số nhà nghiên cứu định tính đã lập luận rằng khái niệm độ chính xác không áp dụng cho nghiên cứu định tính, nhưng đồng thời, họ cũng nhận ra sự cần thiết phải có kiểu kiểm tra hoặc đo lường chất lượng nào đó cho nghiên cứu của mình. Ví dụ, Creswell & Miller (2000) cho rằng độ chính xác chịu ảnh hưởng bởi nhận thức của người nghiên cứu về độ chính xác trong nghiên cứu và sự lựa chọn giả định mẫu hình. Kết quả là, nhiều nhà nghiên cứu đã phát triển khái niệm riêng của họ về độ chính xác và thường tạo ra hoặc sử dụng những thuật ngữ mà họ cho là thích hợp hơn, chẳng hạn như chất lượng (quality), tính chặt chẽ (rigor) và tính đáng tin cậy(trustworthiness) (Davies & Dodd, 2002; Lincoln và Guba, 1985; Mishler, 2000; Seale, 1999; Stenbacka, 2001).

Thảo luận về chất lượng trong nghiên cứu định tính bắt nguồn từ mối quan tâm về độ chính xác và độ tin cậy trong truyền thống định lượng “liên quan đến việc thay thế thuật ngữ mới cho các từ chẳng hạn như độ chính xác và độ tin cậy nhằm phản ánh các khái niệm diễn giải [định tính]” (Seale, 1999, tr.465).

Stenbacka (2001) đã không bỏ qua vấn đề của độ chính xác trong nghiên cứu định tính như bà đã làm đối với vấn đề của độ tin cậy trong nghiên cứu định tính. Thay vào đó, bà lập luận rằng khái niệm độ chính xác nên được định nghĩa lại cho nghiên cứu định tính. Stenbacka (2001) mô tả khái niệm độ tin cậy như là một trong những khái niệm về chất lượng trong nghiên cứu định tính “cần phải được giải quyết nhằm xem một cuộc điều tra (study) như là một phần của nghiên cứu thích hợp” (tr.551).

Trong khi tìm kiếm ý nghĩa của tính chặt chẽ trong nghiên cứu, Davies và Dodd (2002) nhận thấy rằng khái niệm tính chặt chẽ trong nghiên cứu có liên quan đến thảo luận về độ tin cậy và độ chính xác. Davies và Dodd (2002) lập luận rằng việc áp dụng khái niệm tính chặt chẽ trong nghiên cứu định tính nênkhác với so với các khái niệm đó trong nghiên cứu định lượng bằng cách “chấp nhận rằng có sự thiên vị về mặt lượng trong khái niệm tính chặt chẽ, bây giờ chúng ta hãy đặt lại khái niệm tính chặt chẽ bằng cách khám phá tính chủ quan,tính phản hồi, và sự tương tác xã hội của phỏng vấn” (tr.281).

Lincoln và Guba (1985) lập luận rằng việc duy trì tính đáng tin cậy củabáo cáo nghiên cứu phụ thuộc vào các vấn đề, về mặt định lượng, như độ chính xác và độ tin cậy. Ý tưởng khám phá sự thật thông qua độ tin cậy và độ chính xác được thay thế bằng ý tưởng tính đáng tin cậy (Mishler, 2000) – “có thể được bảo vệ” (“defensible”) (Johnson 1997, tr.282) và thiết lập sự tự tin trong các phát hiện (Lincoln và Guba, 1985).

Nếu các vấn đề của độ tin cậy, độ chính xác, tính đáng tin cậy, chất lượng và tính chặt chẽ là nhằm tạo nên sự khác biệt giữa nghiên cứu “tốt” và nghiên cứu “tồi” thì kiểm tra và tăng độ tin cậy, độ chính xác, tính đáng tin cậy, chất lượng và tính chặt chẽ là rất quan trọng đối với công trình nghiên cứu trong bất kỳ mẫu hình nào.

Kiểm tra Độ chính xác và Độ tin cậy

            Đến đây, đã trình bày xong khái niệm (đã được định nghĩa lại) về độ tin cậy và độ chính xác phù hợp với tính hữu dụng của chúng trong nghiên cứu định tính. Bây giờ, vẫn còn một câu hỏi đang chờ câu trả lời “Làm thế nào để kiểm tra hoặc tối đa hóa độ chính xác, và kết quả là độ tin cậy, của một nghiên cứu định tính?”

Nếu độ chính xác hoặc tính đáng tin cậy có thể được tối đa hóa hoặckiểm tra thì khi đó “kết quả đáng tin cậy và có thể được bảo vệ” nhiều hơn(Johnson, 1997, tr.283) có thể dẫn đến khả năng khái quát hóa – một trong nhữngkhái niệm được đề xuất bởi Stenbacka (2001) làm cấu trúc cho cả việc thực hiện và lưu trữ nghiên cứu định tính chất lượng cao. Vì vậy, chất lượng nghiên cứu có liên quan đến việc khái quát hóa kết quả và do đó liên quan đến việc kiểm tra và gia tăng độ chính xác hoặc tính đáng tin cậy của nghiên cứu.

Ngược lại, Maxwell (1992) quan sát thấy rằng mức độ mà kết quả (account) được khái quát hóa là yếu tố phân biệt rõ giữa phương pháp nghiên cứu định lượng và định tính. Mặc dù khả năng khái quát hóa các phát hiện cho các nhóm và hoàn cảnh lớn hơn là một trong những bài kiểm tra độ chính xác phổ biến nhất đối với nghiên cứu định lượng, nhưng Patton (2001) cho rằng khả năng khái quát hóa là một trong các tiêu chí chất lượng của các nghiên cứutrường hợp (case studies) tùy thuộc vào trường hợp được lựa chọn và nghiên cứu. Theo cách hiểu này, độ chính xác trong nghiên cứu định lượng là rất cụ thể đối với bài kiểm tra áp dụng độ chính xác – bài kiểm tra cũng là nơi mà các phương pháp kiểm tra chéo dùng trong nghiên cứu định tính. Kiểm tra chéo(triangulation) là chiến lược (kiểm tra) điển hình nhằm nâng cao độ chính xác vàđộ tin cậy của nghiên cứu hoặc đánh giá các phát hiện. Mathison (1988) trình bày chi tiết:

Kiểm tra chéo đang nổi lên thành vấn đề quan trọng liên quan đến phương pháp luận trong cách tiếp cận tự nhiên và định tính đối với việcđánh giá [nhằm] kiểm soát sự thiên lệch (bias) và thiết lập các mệnh đềhợp lý vì kỹ thuật khoa học truyền thống không phù hợp với nhận thức luận (epistemology) thay thế này (tr.13).

Patton (2001) ủng hộ việc dùng kiểm tra chéo bởi “kiểm tra chéo giúp nghiên cứu hiệu quả hơn bằng cách kết hợp nhiều phương pháp. Điều này có nghĩa là dùng một số kiểu phương pháp hoặc dữ liệu, bao gồm cả phương pháp định lượng lẫn định tính” (tr.247). Tuy nhiên, Barbour (1998) nghi ngờ ý ​​tưởng kết hợp các phương pháp này. Bà lập luận trong khi mẫu hình kết hợp là có thể nhưng phương pháp kết hợp trong một mẫu hình, chẳng hạn như nghiên cứu định tính, là có vấn đề vì mỗi phương pháp trong mẫu hình định tính có giả định riêng của nó “về khung lý thuyết mà chúng ta tập trung để đạt mục tiêu nghiên cứu” (tr.353). Mặc dù kiểm tra chéo được dùng trong mẫu hình định lượng để xác nhận và tổng quát hóa nghiên cứu, Barbour (1998) không bỏ qua khái niệm kiểm tra chéo trong mẫu hình định tính và bà cho rằng cần thiết phải định nghĩa kiểm tra chéo dưới góc độ nghiên cứu định tính trong từng mẫu hình. Ví dụ, kiểm tra chéo nhiều nguồn dữ liệu trong nghiên cứu định lượng, bất kỳ ngoại lệnào cũng có thể dẫn đến việc không khẳng định (disconfirmation) giả thuyếttrong khi các ngoại lệ trong nghiên cứu định tính được xử lý để điều chỉnh các lý thuyết và đạt kết quả.

Theo quan điểm này, Healy và Perry (2000) lý giải về việc đánh giá độ chính xác và độ tin cậy trong mẫu hình hiện thực (realism paradigm) mà mẫu hình này dựa trên các quan niệm về một thực tại duy nhất. Họ lập luận về sự tiến hành kiểm tra chéo nhiều nguồn dữ liệu và diễn giải của họ về các quan niệm đó trong mẫu hình hiện thực.

Một mẫu hình khác trong nghiên cứu định tính là thuyết kiến tạo(constructivism) vốn xem kiến thức được xây dựng dựa trên tương tác xã hội vàcó thể thay đổi tùy thuộc vào hoàn cảnh. Crotty (1998) định nghĩa thuyết kiến tạo từ góc nhìn xã hội “quan điểm cho rằng tất cả kiến thức, và do đó tất cả thực tại có ý nghĩa theo cách đó, dựa trên hoạt động của con người, được xây dựngtrong và ngoài mối tương tác giữa con người và thế giới của họ, và được phát triển và lan truyền trong bối cảnh xã hội cơ bản” (tr.42). Trong bất kỳ nghiên cứu định tính nào, mục đích đều là “tham gia vào nghiên cứu nhằm cố gắng tìm hiểu để có được sự hiểu biết sâu sắc hơn chứ không phải là kiểm tra các đặc tính hời hợt” (Johnson, 1995, tr.4) và thuyết kiến tạo có thể tạo điều kiện để đạt đượcmục tiêu đó. Khái niệm kiến tạo, nghĩa là thực tại đang thay đổi cho dù người quan sát có muốn hay không (HIPPS, 1993), là dấu hiệu của nhiều thực tại hoặc đa dạng kết cấu có thể có của thực tại. Thuyết kiến tạo đánh giá các thực tại mà mọi người có trong tâm trí của mình. Vì vậy, để có được nhiều và đa dạng cácthực tại chính xác và đáng tin cậy, đòi hỏi phải có nhiều phương pháp tìm kiếm hay thu thập dữ liệu. Nếu điều này dẫn đến áp dụng kiểm tra chéo trong mẫuhình kiến tạo, thì dùng kiểm tra chéo để kiểm tra người nghiên cứu, phương pháp và dữ liệu để ghi nhận kết cấu của thực tại là thích hợp (Johnson, 1997). Một quan điểm mở trong thuyết kiến tạo gắn với ý tưởng kiểm tra chéo dữ liệubằng cách cho phép người tham gia trong một nghiên cứu hỗ trợ các nhà nghiên cứu trong câu hỏi nghiên cứu cũng như trong việc thu thập dữ liệu. Áp dụngnhiều phương pháp, chẳng hạn như quan sát, phỏng vấn và ghi âm sẽ dẫn đến kết quả là kết cấu của thực tại sẽ chính xác, đáng tin cậy và đa dạng hơn. Để nâng cao sự phân tích và hiểu biết kết cấu của các thực tại khác, các nhà nghiên cứunên thực hiện kiểm tra chéo để có thể tham gia cùng với nhiều nhà điều tra hoặc tham khảo diễn giải dữ liệu của các nhà nghiên cứu đồng đẳng tại thời điểm hoặc địa điểm khác nhau. Tương tự, nhà nghiên cứu định tính có thể “sử dụng kiểm tra chéo để kiểm tra người thực hiện điều tra và xem xét các ý tưởng và lời giải thích được tạo ra bởi các nhà nghiên cứu bổ sung đang nghiên cứu người tham gia cuộc nghiên cứu” (Johnson, 1997, tr.284).

Kiểm tra chéo có thể bao gồm các phương pháp thu thập dữ liệu và phân tích dữ liệu, nhưng không đề xuất một phương pháp cố định nào áp dụng cho tất cả các nghiên cứu. Các phương pháp được lựa chọn trong kiểm tra chéo để kiểm tra độ chính xác và độ tin cậy của một nghiên cứu phụ thuộc vào tiêu chí của nghiên cứu.

Hiểu biết của Chúng ta

            Từ thảo luận nói trên, sự kết hợp giữa mẫu hình định lượng với nghiên cứu định tính thông qua độ chính xác và độ tin cậy đã thay đổi hiểu biết của chúng ta về ý nghĩa truyền thống của độ tin cậy và độ chính xác từ góc nhìn của nhà nghiên cứu định tính. Độ tin cậy và độ chính xác được định nghĩa là tính đáng tin cậy (trustworthiness), tính chặt chẽ (rigor) và chất lượng (quality) trongmẫu hình định tính. Cũng thông qua sự kết hợp này, cách thức để đạt được độ chính xác và độ tin cậy sẽ chịu ảnh hưởng bởi quan điểm của nhà nghiên cứuđịnh tính – đó là quan điểm mong muốn loại bỏ sự thiên lệch (bias) và tăng tính trung thực của người nghiên cứu đối với ý tưởng về một hiện tượng xã hội nào đó (Denzin, 1978), sự loại bỏ này sẽ thực hiện qua việc sử dụng kiểm tra chéo. Khi đó kiểm tra chéo được định nghĩa là “các thủ tục hợp lý giúp nhà nghiên cứutìm kiếm sự hội tụ giữa nhiều và đa dạng các nguồn thông tin để hình thành nênchủ đề hay các phạm trù (categories) trong nghiên cứu” (Creswell & Miller, 2000, tr.126).

Do đó, độ tin cậy, độ chính xác và kiểm tra chéo, nếu chúng là các khái niệm nghiên cứu phù hợp, đặc biệt là từ góc nhìn định tính, phải được định nghĩa lại như chúng ta đã thấy để phản ánh nhiều cách thức phát hiện ra sự thật.

References

Babour, R. S. (1998). Mixing qualitative methods: Quality assurance or qualitative quagmire?       Qualitative Health Research, 8(3), 352-361.

Bogdan, R. C. & Biklen, S. K. (1998). Qualitative research in education: An introduction to          theory and methods (3rd ed.). Needham Heights, MA: Allyn & Bacon.

Campbell, T. (1996). Technology, multimedia, and qualitative research in education. Journal of     Research on Computing in Education, 30(9), 122-133.

Charles, C. M. (1995). Introduction to educational research (2nd ed.). San Diego, Longman.

Clont, J. G. (1992). The concept of reliability as it pertains to data from qualitative studies.             Paper Presented at the annual meeting ofthe South West Educational Research Association. Houston, TX.

Creswell, J. W. & Miller, D. L. (2000). Determining validity in qualitative inquiry. Theory into      Practice, 39(3), 124-131.

Crocker, L., & Algina, J. (1986). Introduction to classical and modern test theory. Toronto: Holt,   RineHart, and Winston, Inc.

Davies, D., & Dodd, J. (2002). Qualitative research and the question of rigor. Qualitative Health research, 12(2), 279-289.

Denzin, N. K. (1978). The research act: A theoretical introduction to sociological methods. New   York: McGraw-Hill.

Denzin, N. K., & Lincoln, Y. S. Eds.). (1998). The landscape of qualitative research: Theories      and issues. Thousand Oaks: Sage Publications.

Denzin, N. K., & Lincoln, Y. S. (1998) (Eds). Collecting and interpreting qualitative materials.     Thousand Oaks: Sage Publication.

Eisner, E. W. (1991). The enlightened eye: Qualitative inquiry and the enhancement of       educational practice. New York, NY: Macmillan Publishing Company.

Glesne, C., & Peshkin, P. (1992). Becoming qualitative researches: An introduction. New York,    NY: Longman.

Healy, M., & Perry, C. (2000). Comprehensive criteria to judge validityand reliability of    qualitative research within the realism paradigm. Qualitative Market Research, 3(3), 118-          126.

Hoepfl, M. C. (1997). Choosing qualitative research: A primer for technology education    researchers. Journal of Technology Education, 9(1), 47-63. Retrieved February 25, 1998,    from http://scholar.lib.vt.edu/ejournals/JTE/v9n1/pdf/hoepfl.pdf

Hipps, J. A. (1993). Trustworthiness and authenticity: Alternate ways to judge authentic     assessments. Paper presented at the annual meeting of the American Educational          Research Association. Atlanta, GA.

Johnson, B. R. (1997). Examining the validity structure of qualitativeresearch. Education,             118(3), 282-292.

Johnson, S. D. (1995, Spring). Will our research hold upunder scrutiny? Journal of Industrial        Teacher Education, 32(3), 3-6.

Joppe, M. (2000).  The Research Process.  Retrieved February 25, 1998, from             http://www.ryerson.ca/~mjoppe/rp.htm

Kirk, J., & Miller, M. L. (1986). Reliability and validity in qualitative research. Beverly Hills:         Sage Publications.

Lincoln, Y. S., & Guba, E. G. (1985). Naturalistic inquiry. Beverly Hills, CA: Sage.

Mathison, S. (1988). Why triangulate? Educational Researcher, 17(2), 13-17.

Maxwell, J. A. (1992). Understanding and validity in qualitative research. Harvard Educational   Review, 62(3), 279-300

Patton, M. Q. (2002). Qualitative evaluation and research methods (3rd ed.). Thousand Oaks,       CA: Sage Publications, Inc.

Seale, C. (1999). Quality in qualitative research. Qualitative Inquiry, 5(4), 465-478.

Stenbacka, C. (2001). Qualitative research requires quality concepts of its own. Management        Decision,  39(7), 551-555

Strauss, A., & Corbin, J. (1990). Basics of qualitative research: Grounded theoryprocedures         and techniques. Newbury Park, CA: Sage Publications, Inc.

Wainer, H., & Braun, H. I. (1988). Test validity. Hilldale, NJ: Lawrence Earlbaum Associates.

Winter, G. (2000). A comparative discussion of the notion of validity in qualitative and    quantitative research. The Qualitative Report, 4(3&4). Retrieved February 25, 1998, from        http://www.nova.edu/ssss/QR/QR4-3/winter.html

Author’s Note

Nahid Golafshani is a doctoral student in the department of Curriculum, Teaching and Learning at the Ontario Institute for Studying Education\University of Toronto where she learns and gains experiences by working with the diverse group of students and faculties. Her area of specialization is Mathematics Education. Her researches include multicultural teaching and learning, teachers’ beliefs, and problem-based mathematics learning and learning. Ms. Golafshani may be contacted at Ontario Institute for Studying Education\University of Toronto Curriculum,Teaching and Learning, 252 Bloor Street West, Toronto, Ontario, Canada M5S 1V6; Telephone: 519-747-4559; Fax Telephone: (253) 322-8961; E-mail: ngolafshani@oise.utoronto.ca

Copyright 2003: Nahid Golafshani and Nova Southeastern University

Author’s Citation

Golafshani, N. (2003). Understanding reliability and validity in qualitative research. The   Qualitative Report, 8(4), 597-606. Retrieved [Insert date], from:           http://www.nova.edu/ssss/QR/QR8-4/golafshani.pdf

——————–&&&—————-

Phân phối Tweedie (Tweedie distribution)

Phân phối Tweedie (Tweedie distribution)

(Nguồn: https://en.wikipedia.org)

Phân phối Tweedie là gì?

Trong xác suất và thống kê, họ phân bố Tweedie là họ các phân bố xác suất bao gồm: các phân bố chuẩn và gamma liên tục, phân bố Poisson rời rạc; và phân bố Poisson-gamma hỗn hợp. Đối với bất kỳ biến ngẫu nhiên Y nào tuân thủ phân bố Tweedie, phương sai var (Y) liên hệ với kỳ vọng E (Y) theo luật mũ:

{\text{var}}\,(Y)=a[{\text{E}}\,(Y)]^{p},

trong đó a và p là hằng số dương.

Các phân phối Tweedie được đặt tên bởi Bent Jørgensen theo tên của Maurice Tweedie – một nhà vật lý trị liệu và y học tại Đại học Liverpool, Vương quốc Anh – người đã đưa ra nghiên cứu kỹ lưỡng đầu tiên về các phân bố này vào năm 1984.

Một số họ phân phối Tweedie:

Với 0 < p < 1 không tồn tại phân phối Tweedie.

Tài liệu hướng dẫn thực hành phân phối Tweedie trên R:

Ghi chú. Các họ phân phối xác suất: Circular ; compound Poisson ; elliptical ; exponential ; natural exponential ; location–scale ; maximum entropy ; mixture ; Pearson ; Tweedie ; wrapped

———————–&&&———————

Mô hình Cox (Cox proportional hazards model)

Mô hình Cox (Cox proportional hazards model)

(Tác giả: Nguyễn Văn Tuấn – Nguồn: http://tuanvannguyen.blogspot.com)

Có thể nói công trình làm nên tên tuổi của Gs David Cox là bài báo “Regression models and life-tables” công bố trên tập san Journal of the Royal Statistical Society năm 1972. Trong bài báo đó, ông mô tả một phương pháp phân tích các dữ liệu sống còn theo mô thức hồi qui. Mô hình này sau này được biết đến dưới thuật ngữ “Cox’s proportional hazards model” (nhớ rằng hazards có “s” nhé).

Chúng ta đã biết rằng có 2 mô hình hồi qui phổ biến dựa vào biến outcome. Để tìm hiểu mối liên quan giữa một biến outcome liên tục và những yếu tố khác, chúng ta dùng mô hình hồi qui tuyến tính (linear regression). Ví dụ như mô hình mối liên quan sự ảnh hưởng của gen đến biến insulin, vì insulin là biến outcome thuộc loại liên tục, nên chúng ta dùng mô hình hồi qui tuyến tính. Nếu biến outcome là biến nhị phân (chỉ có hai giá trị 0/1, yes/no, sống/chết …) thì chúng ta dùng mô hình hồi qui logistic.

Nhưng nếu biến outcome là biến nhị phân, mà nó lại phụ thuộc vào thời gian theo dõi. Ví dụ như bệnh nhân được điều trị, có người sống suốt thời gian theo dõi, có người chết sau điều trị vài tháng, có người sống đến 2 năm, lại có người chúng ta không biết còn sống hay chết vì không theo dõi được. Trong những trường hợp này, chúng ta dùng mô hình hồi quy Cox (còn gọi là mô hình hazards), như ông mô tả trong bài báo công bố vào năm 1972. Gọi L(t) là rủi ro (hazard) của một cá nhân tại thời điểm t, mô hình hồi qui Cox phát biểu rằng L(t) được xác định bởi tích số của rủi ro trung bình (L0) và ảnh hưởng của các yếu tố nguy cơ (X1, X2, …, Xk):

L(t) = L0*exp(b1X1 + b2X2 + … + bkXk)

Trong đó, b1, b2, …, bk là hệ số cần phải ước tính từ dữ liệu thực tế. Ví dụ như tôi muốn biết rủi ro bị ung thư trong vòng 5 năm, L(5), của một cá nhân bằng rủi ro trung bình trong quần thể, L0, và ảnh hưởng của các yếu tố như độ tuổi, giới tính, lối sống, gen, v.v.

Mô hình này phổ biến trong hầu hết các ngành khoa học, từ y khoa đến kĩ thuật và xã hội học. Nhiều nhà khoa học xã hội còn áp dụng mô hình để nghiên cứu thời gian từ lúc hôn nhân đến li dị! Bài báo của Gs Cox cho đến nay (sau 45 năm) đã có hơn 45,000 trích dẫn! Bài báo này được đánh giá là một trong 100 công trình nổi tiếng toàn cầu từ trước đến nay (Con số trích dẫn của toàn bộ nền toán học Việt Nam trong 10 năm cũng không bằng phân nửa con số trích dẫn này của 1 bài báo).

Bây giờ, khi chúng ta đã biết và hiểu mô hình này, thì thấy nó không có gì quá phức tạp, nhưng phát kiến đó tốn Gs Cox rất nhiều thời gian. Ông cho biết rằng trước đó ông đã quan tâm đến vấn đề reliability trong kĩ thuật trong thời gian làm việc cho hãng máy bay và hiệp hội vải len, nhưng chưa nghĩ ra cách phân tích. Ông cho biết ông dành đến 4 năm cho công trình này. Có đêm ông thức giấc và nghĩ đến nó, nhưng rồi lại … ngủ.

Được hỏi tại sao bài báo trở nên phổ biến, ông cho rằng một phần là phương pháp elegant và dễ hiểu, nhưng phần quan trọng khác là có nhiều người viết chương trình máy tính để triển khai mô hình trong thực tế. Thế là nhiều người có thể ứng dụng và trích dẫn bài báo. Đây cũng là một bài học cho nhà khoa học, vì muốn phương pháp của mình được nhiều người sử dụng (và gây ảnh hưởng) thì ngoài lí thuyết còn phải viết chương trình máy tính.

Trong một bài nói chuyện về tiến bộ trong y học trong thế kỉ 20, một giáo sư Mĩ lừng danh là Ioanndidis nói rằng “mô hình Cox” là một trong những tiến bộ quan trọng nhất. Mà, đúng như thế. Làm sao chúng ta có thể xác định hiệu quả của thuốc điều trị, của thuật can thiệp; làm sao chúng ta có cách chọn phương pháp điều trị tối ưu và cứu sống bệnh nhân. Ứng dụng mô hình Cox đã giúp y khoa trả lời những câu hỏi đó. Qua mô hình Cox, ông đã gián tiếp cứu vô số bệnh nhân trên toàn thế giới. Qua mô hình đó, ông cũng đã làm thay đổi cách phân tích của các nhà khoa học, kinh tế học, xã hội học, công nghệ, v.v. và giúp họ có những khám phá có ích cho đời. Nhìn như thế, chúng thấy mức độ ảnh hưởng của David Cox quả là to lớn, và khó có thể đo lường bằng chỉ tần số trích dẫn.  Do đó, không ngạc nhiên khi 3 năm trước, Tạp chí Nature xếp công trình “Cox’s model” là một trong 100 công trình có ảnh hưởng lớn nhất trong lịch sử khoa học (“top 100 most-cited papers of all time for all fields”) (1).

======

(1) http://www.nature.com/news/the-top-100-papers-1.16224

Trong số 100 bài báo có ảnh hưởng lớn nhất trong lịch sử khoa học, có đến 12 bài thuộc khoa học thống kê. Một số công trình này tuy có ảnh hưởng lớn đến khoa học, nhưng chưa hẳn là những công trình hàng đầu trong thống kê học. Danh sách 12 bài đó là như sau:

1. Kaplan, E. L. & Meier, P. Nonparametric estimation from incomplete observations. Journal of the American Statistical Association. 53, 457–481 (1958).

2. Cox, D. R. Regression models and life-tables. J. R. Stat. Soc., B 34, 187–220 (1972).

3. Bland, J. M. & Altman, D. G. Statistical methods for assessing agreement between two methods of clinical measurement. Lancet 327, 307–310 (1986).

4. Dempster, A. P., Laird, N. M. & Rubin, D. B. Maximum likelihood from incomplete data via EM algorithm. J. R. Stat. Soc., B 39, 1–38 (1977).

5. Benjamini, Y. & Hochberg, Y. Controlling the false discovery rate: a practical and powerful approach to multiple testing. J. R. Stat. Soc. B 57, 289–300 (1995).

6. Duncan, D. B. Multiple range and multiple F tests. Biometrics 11, 1–42 (1955).

7. Landis, J. R. & Koch, G. G. The measurement of observer agreement for categorical data. Biometrics 33, 159–174 (1977).

8. Akaike, H. A new look at statistical-model identification. IEEE Trans. Automat. Contr. 19, 716–723 (1974).

9. Marquardt, D. W. An algorithm for least-squares estimation of nonlinear parameters. J. Soc. Ind. Appl. Math. 11, 431–441 (1963).

10. Felsenstein, J. Confidence limits on phylogenies: an approach using the bootstrap. Evolution 39, 783–791 (1985).

11. Baron, R. M. & Kenny, D. A. The moderator–mediator variable distinction in social psychological-research — conceptual, strategic, and statistical considerations. J. Pers. Soc. Psychol. 51, 1173–1182 (1986).

12. Ronquist, F. & Huelsenbeck, J. P. MrBayes 3: Bayesian phylogenetic inference under mixed models. Bioinformatics 19, 1572–1574 (2003).


Xem thêm:

—————-&&&—————-