Lọc theo danh mục
  • Năm xuất bản
    Xem thêm
  • Lĩnh vực
liên kết website
Lượt truy cập
 Lượt truy cập :  24,074,818
  • Công bố khoa học và công nghệ Việt Nam

76

Kỹ thuật và thiết bị y học

BB

Nguyen Thanh Thu, Dinh Binh Duong, Tran Thi Thao, Pham Van Truong, Trần Thị Thảo(1)

Ac-mlp: bộ trộn tích chập trục-mlp để phân đoạn nhân trong hình ảnh bệnh lý học

Ac-mlp: axial convolution-mlp mixer for nuclei segmentation in histopathological images

Tạp chí Khoa học và Công nghệ - Đại học Đà Nẵng

2024

12

64-69

1859-1531

MLP-Mixer gần đây có khả năng xử lý tốt các phụ thuộc tầm xa, tuy nhiên, để có hiệu suất tốt, người ta cần dữ liệu lớn và cơ sở hạ tầng đắt tiền cho quá trình tiền đào tạo. Trong nghiên cứu này, chúng tôi đề xuất một mô hình mới cho phân đoạn ảnh hạt nhân, cụ thể là Axial Convolutional-MLP Mixer, bằng cách thay thế bộ trộn mã thông báo của MLP-Mixer bằng một toán tử mới, Axial Convolutional Token Mix. Cụ thể, trong Axial Convolutional Token Mix, chúng tôi kế thừa ý tưởng về tích chập theo chiều sâu trục để tạo ra một trường tiếp nhận linh hoạt. Chúng tôi cũng đề xuất một mô-đun Long-range Attention sử dụng tích chập giãn nở để mở rộng kích thước hạt nhân tích chập, do đó giải quyết vấn đề về các phụ thuộc tầm xa. Các thí nghiệm chứng minh rằng mô hình của chúng tôi có thể đạt được kết quả cao trên các tập dữ liệu y tế nhỏ, với điểm Dice là 90,20% trên tập dữ liệu GlaS, 80,43% trên tập dữ liệu MoNuSeg và không cần tiền đào tạo. Mã sẽ có tại https://github.com/thanhthu152/AC-MLP.

Recent MLP-Mixer has a good ability to handle long-range dependencies, however, to have a good performance, one requires huge data and expensive infrastructures for the pre-training process. In this study, we proposed a novel model for nuclei image segmentation namely Axial Convolutional-MLP Mixer, by replacing the token mixer of MLP-Mixer with a new operator, Axial Convolutional Token Mix. Specifically, in the Axial Convolutional Token Mix, we inherited the idea of axial depthwise convolution to create a flexible receptive field. We also proposed a Long-range Attention module that uses dilated convolution to extend the convolutional kernel size, thereby addressing the issue of long-range dependencies. Experiments demonstrate that our model can achieve high results on small medical datasets, with Dice scores of 90.20% on the GlaS dataset, 80.43% on the MoNuSeg dataset, and without pre-training. The code will be available at https://github.com/thanhthu152/AC-MLP.

TTKHCNQG, CVv 465