Lines Matching defs:eint
22 #include "mtk-eint.h"
51 static void __iomem *mtk_eint_get_offset(struct mtk_eint *eint,
58 if (eint_num >= eint->hw->ap_num)
59 eint_base = eint->hw->ap_num;
61 reg = eint->base + offset + ((eint_num - eint_base) / 32) * 4;
66 static unsigned int mtk_eint_can_en_debounce(struct mtk_eint *eint,
71 void __iomem *reg = mtk_eint_get_offset(eint, eint_num,
72 eint->regs->sens);
79 if (eint_num < eint->hw->db_cnt && sens != MTK_EINT_EDGE_SENSITIVE)
85 static int mtk_eint_flip_edge(struct mtk_eint *eint, int hwirq)
90 u32 port = (hwirq >> 5) & eint->hw->port_mask;
91 void __iomem *reg = eint->base + (port << 2);
93 curr_level = eint->gpio_xlate->get_gpio_state(eint->pctl, hwirq);
98 reg_offset = eint->regs->pol_clr;
100 reg_offset = eint->regs->pol_set;
103 curr_level = eint->gpio_xlate->get_gpio_state(eint->pctl,
112 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
114 void __iomem *reg = mtk_eint_get_offset(eint, d->hwirq,
115 eint->regs->mask_set);
117 eint->cur_mask[d->hwirq >> 5] &= ~mask;
124 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
126 void __iomem *reg = mtk_eint_get_offset(eint, d->hwirq,
127 eint->regs->mask_clr);
129 eint->cur_mask[d->hwirq >> 5] |= mask;
133 if (eint->dual_edge[d->hwirq])
134 mtk_eint_flip_edge(eint, d->hwirq);
137 static unsigned int mtk_eint_get_mask(struct mtk_eint *eint,
141 void __iomem *reg = mtk_eint_get_offset(eint, eint_num,
142 eint->regs->mask);
149 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
151 void __iomem *reg = mtk_eint_get_offset(eint, d->hwirq,
152 eint->regs->ack);
159 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
165 dev_err(eint->dev,
172 eint->dual_edge[d->hwirq] = 1;
174 eint->dual_edge[d->hwirq] = 0;
177 reg = mtk_eint_get_offset(eint, d->hwirq, eint->regs->pol_clr);
180 reg = mtk_eint_get_offset(eint, d->hwirq, eint->regs->pol_set);
185 reg = mtk_eint_get_offset(eint, d->hwirq, eint->regs->sens_clr);
188 reg = mtk_eint_get_offset(eint, d->hwirq, eint->regs->sens_set);
192 if (eint->dual_edge[d->hwirq])
193 mtk_eint_flip_edge(eint, d->hwirq);
200 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
205 eint->wake_mask[reg] |= BIT(shift);
207 eint->wake_mask[reg] &= ~BIT(shift);
212 static void mtk_eint_chip_write_mask(const struct mtk_eint *eint,
218 for (port = 0; port < eint->hw->ports; port++) {
220 writel_relaxed(~buf[port], reg + eint->regs->mask_set);
221 writel_relaxed(buf[port], reg + eint->regs->mask_clr);
227 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
232 err = eint->gpio_xlate->get_gpio_n(eint->pctl, d->hwirq,
235 dev_err(eint->dev, "Can not find pin\n");
241 dev_err(eint->dev, "unable to lock HW IRQ %lu for IRQ\n",
246 err = eint->gpio_xlate->set_gpio_as_eint(eint->pctl, d->hwirq);
248 dev_err(eint->dev, "Can not eint mode\n");
257 struct mtk_eint *eint = irq_data_get_irq_chip_data(d);
261 eint->gpio_xlate->get_gpio_n(eint->pctl, d->hwirq, &gpio_n,
268 .name = "mt-eint",
279 static unsigned int mtk_eint_hw_init(struct mtk_eint *eint)
281 void __iomem *dom_en = eint->base + eint->regs->dom_en;
282 void __iomem *mask_set = eint->base + eint->regs->mask_set;
285 for (i = 0; i < eint->hw->ap_num; i += 32) {
296 mtk_eint_debounce_process(struct mtk_eint *eint, int index)
301 ctrl_offset = (index / 4) * 4 + eint->regs->dbnc_ctrl;
302 dbnc = readl(eint->base + ctrl_offset);
305 ctrl_offset = (index / 4) * 4 + eint->regs->dbnc_set;
307 writel(rst, eint->base + ctrl_offset);
314 struct mtk_eint *eint = irq_desc_get_handler_data(desc);
317 void __iomem *reg = mtk_eint_get_offset(eint, 0, eint->regs->stat);
321 for (eint_num = 0; eint_num < eint->hw->ap_num; eint_num += 32,
328 virq = irq_find_mapping(eint->domain, index);
337 if (eint->wake_mask[mask_offset] & BIT(offset) &&
338 !(eint->cur_mask[mask_offset] & BIT(offset))) {
340 eint->regs->stat +
341 eint->regs->mask_set);
344 dual_edge = eint->dual_edge[index];
350 writel(BIT(offset), reg - eint->regs->stat +
351 eint->regs->soft_clr);
354 eint->gpio_xlate->get_gpio_state(eint->pctl,
361 curr_level = mtk_eint_flip_edge(eint, index);
369 eint->regs->stat +
370 eint->regs->soft_set);
373 if (index < eint->hw->db_cnt)
374 mtk_eint_debounce_process(eint, index);
380 int mtk_eint_do_suspend(struct mtk_eint *eint)
382 mtk_eint_chip_write_mask(eint, eint->base, eint->wake_mask);
388 int mtk_eint_do_resume(struct mtk_eint *eint)
390 mtk_eint_chip_write_mask(eint, eint->base, eint->cur_mask);
396 int mtk_eint_set_debounce(struct mtk_eint *eint, unsigned long eint_num,
406 virq = irq_find_mapping(eint->domain, eint_num);
410 set_offset = (eint_num / 4) * 4 + eint->regs->dbnc_set;
411 clr_offset = (eint_num / 4) * 4 + eint->regs->dbnc_clr;
413 if (!mtk_eint_can_en_debounce(eint, eint_num))
424 if (!mtk_eint_get_mask(eint, eint_num)) {
432 writel(clr_bit, eint->base + clr_offset);
437 writel(rst | bit, eint->base + set_offset);
451 int mtk_eint_find_irq(struct mtk_eint *eint, unsigned long eint_n)
455 irq = irq_find_mapping(eint->domain, eint_n);
463 int mtk_eint_do_init(struct mtk_eint *eint)
468 if (!eint->regs)
469 eint->regs = &mtk_generic_eint_regs;
471 eint->wake_mask = devm_kcalloc(eint->dev, eint->hw->ports,
472 sizeof(*eint->wake_mask), GFP_KERNEL);
473 if (!eint->wake_mask)
476 eint->cur_mask = devm_kcalloc(eint->dev, eint->hw->ports,
477 sizeof(*eint->cur_mask), GFP_KERNEL);
478 if (!eint->cur_mask)
481 eint->dual_edge = devm_kcalloc(eint->dev, eint->hw->ap_num,
483 if (!eint->dual_edge)
486 eint->domain = irq_domain_add_linear(eint->dev->of_node,
487 eint->hw->ap_num,
489 if (!eint->domain)
492 mtk_eint_hw_init(eint);
493 for (i = 0; i < eint->hw->ap_num; i++) {
494 int virq = irq_create_mapping(eint->domain, i);
498 irq_set_chip_data(virq, eint);
501 irq_set_chained_handler_and_data(eint->irq, mtk_eint_irq_handler,
502 eint);