1// SPDX-License-Identifier: (GPL-2.0+ OR BSD-3-Clause)
2/*
3 * Copyright 2014-2016 Freescale Semiconductor Inc.
4 * Copyright NXP 2016
5 *
6 */
7
8#include <linux/types.h>
9#include <linux/init.h>
10#include <linux/module.h>
11#include <linux/platform_device.h>
12#include <linux/interrupt.h>
13#include <linux/msi.h>
14#include <linux/dma-mapping.h>
15#include <linux/delay.h>
16#include <linux/io.h>
17#include <linux/sys_soc.h>
18
19#include <linux/fsl/mc.h>
20#include <soc/fsl/dpaa2-io.h>
21
22#include "qbman-portal.h"
23#include "dpio.h"
24#include "dpio-cmd.h"
25
26MODULE_LICENSE("Dual BSD/GPL");
27MODULE_AUTHOR("Freescale Semiconductor, Inc");
28MODULE_DESCRIPTION("DPIO Driver");
29
30struct dpio_priv {
31	struct dpaa2_io *io;
32};
33
34static cpumask_var_t cpus_unused_mask;
35
36static const struct soc_device_attribute ls1088a_soc[] = {
37	{.family = "QorIQ LS1088A"},
38	{ /* sentinel */ }
39};
40
41static const struct soc_device_attribute ls2080a_soc[] = {
42	{.family = "QorIQ LS2080A"},
43	{ /* sentinel */ }
44};
45
46static const struct soc_device_attribute ls2088a_soc[] = {
47	{.family = "QorIQ LS2088A"},
48	{ /* sentinel */ }
49};
50
51static const struct soc_device_attribute lx2160a_soc[] = {
52	{.family = "QorIQ LX2160A"},
53	{ /* sentinel */ }
54};
55
56static int dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device *dpio_dev, int cpu)
57{
58	int cluster_base, cluster_size;
59
60	if (soc_device_match(ls1088a_soc)) {
61		cluster_base = 2;
62		cluster_size = 4;
63	} else if (soc_device_match(ls2080a_soc) ||
64		   soc_device_match(ls2088a_soc) ||
65		   soc_device_match(lx2160a_soc)) {
66		cluster_base = 0;
67		cluster_size = 2;
68	} else {
69		dev_err(&dpio_dev->dev, "unknown SoC version\n");
70		return -1;
71	}
72
73	return cluster_base + cpu / cluster_size;
74}
75
76static irqreturn_t dpio_irq_handler(int irq_num, void *arg)
77{
78	struct device *dev = (struct device *)arg;
79	struct dpio_priv *priv = dev_get_drvdata(dev);
80
81	return dpaa2_io_irq(priv->io);
82}
83
84static void unregister_dpio_irq_handlers(struct fsl_mc_device *dpio_dev)
85{
86	struct fsl_mc_device_irq *irq;
87
88	irq = dpio_dev->irqs[0];
89
90	/* clear the affinity hint */
91	irq_set_affinity_hint(irq->msi_desc->irq, NULL);
92}
93
94static int register_dpio_irq_handlers(struct fsl_mc_device *dpio_dev, int cpu)
95{
96	int error;
97	struct fsl_mc_device_irq *irq;
98
99	irq = dpio_dev->irqs[0];
100	error = devm_request_irq(&dpio_dev->dev,
101				 irq->msi_desc->irq,
102				 dpio_irq_handler,
103				 0,
104				 dev_name(&dpio_dev->dev),
105				 &dpio_dev->dev);
106	if (error < 0) {
107		dev_err(&dpio_dev->dev,
108			"devm_request_irq() failed: %d\n",
109			error);
110		return error;
111	}
112
113	/* set the affinity hint */
114	if (irq_set_affinity_hint(irq->msi_desc->irq, cpumask_of(cpu)))
115		dev_err(&dpio_dev->dev,
116			"irq_set_affinity failed irq %d cpu %d\n",
117			irq->msi_desc->irq, cpu);
118
119	return 0;
120}
121
122static int dpaa2_dpio_probe(struct fsl_mc_device *dpio_dev)
123{
124	struct dpio_attr dpio_attrs;
125	struct dpaa2_io_desc desc;
126	struct dpio_priv *priv;
127	int err = -ENOMEM;
128	struct device *dev = &dpio_dev->dev;
129	int possible_next_cpu;
130	int sdest;
131
132	priv = devm_kzalloc(dev, sizeof(*priv), GFP_KERNEL);
133	if (!priv)
134		goto err_priv_alloc;
135
136	dev_set_drvdata(dev, priv);
137
138	err = fsl_mc_portal_allocate(dpio_dev, 0, &dpio_dev->mc_io);
139	if (err) {
140		dev_dbg(dev, "MC portal allocation failed\n");
141		err = -EPROBE_DEFER;
142		goto err_priv_alloc;
143	}
144
145	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
146			&dpio_dev->mc_handle);
147	if (err) {
148		dev_err(dev, "dpio_open() failed\n");
149		goto err_open;
150	}
151
152	err = dpio_reset(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
153	if (err) {
154		dev_err(dev, "dpio_reset() failed\n");
155		goto err_reset;
156	}
157
158	err = dpio_get_attributes(dpio_dev->mc_io, 0, dpio_dev->mc_handle,
159				  &dpio_attrs);
160	if (err) {
161		dev_err(dev, "dpio_get_attributes() failed %d\n", err);
162		goto err_get_attr;
163	}
164	desc.qman_version = dpio_attrs.qbman_version;
165
166	err = dpio_enable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
167	if (err) {
168		dev_err(dev, "dpio_enable() failed %d\n", err);
169		goto err_get_attr;
170	}
171
172	/* initialize DPIO descriptor */
173	desc.receives_notifications = dpio_attrs.num_priorities ? 1 : 0;
174	desc.has_8prio = dpio_attrs.num_priorities == 8 ? 1 : 0;
175	desc.dpio_id = dpio_dev->obj_desc.id;
176
177	/* get the cpu to use for the affinity hint */
178	possible_next_cpu = cpumask_first(cpus_unused_mask);
179	if (possible_next_cpu >= nr_cpu_ids) {
180		dev_err(dev, "probe failed. Number of DPIOs exceeds NR_CPUS.\n");
181		err = -ERANGE;
182		goto err_allocate_irqs;
183	}
184	desc.cpu = possible_next_cpu;
185	cpumask_clear_cpu(possible_next_cpu, cpus_unused_mask);
186
187	sdest = dpaa2_dpio_get_cluster_sdest(dpio_dev, desc.cpu);
188	if (sdest >= 0) {
189		err = dpio_set_stashing_destination(dpio_dev->mc_io, 0,
190						    dpio_dev->mc_handle,
191						    sdest);
192		if (err)
193			dev_err(dev, "dpio_set_stashing_destination failed for cpu%d\n",
194				desc.cpu);
195	}
196
197	if (dpio_dev->obj_desc.region_count < 3) {
198		/* No support for DDR backed portals, use classic mapping */
199		/*
200		 * Set the CENA regs to be the cache inhibited area of the
201		 * portal to avoid coherency issues if a user migrates to
202		 * another core.
203		 */
204		desc.regs_cena = devm_memremap(dev, dpio_dev->regions[1].start,
205					resource_size(&dpio_dev->regions[1]),
206					MEMREMAP_WC);
207	} else {
208		desc.regs_cena = devm_memremap(dev, dpio_dev->regions[2].start,
209					resource_size(&dpio_dev->regions[2]),
210					MEMREMAP_WB);
211	}
212
213	if (IS_ERR(desc.regs_cena)) {
214		dev_err(dev, "devm_memremap failed\n");
215		err = PTR_ERR(desc.regs_cena);
216		goto err_allocate_irqs;
217	}
218
219	desc.regs_cinh = devm_ioremap(dev, dpio_dev->regions[1].start,
220				      resource_size(&dpio_dev->regions[1]));
221	if (!desc.regs_cinh) {
222		err = -ENOMEM;
223		dev_err(dev, "devm_ioremap failed\n");
224		goto err_allocate_irqs;
225	}
226
227	err = fsl_mc_allocate_irqs(dpio_dev);
228	if (err) {
229		dev_err(dev, "fsl_mc_allocate_irqs failed. err=%d\n", err);
230		goto err_allocate_irqs;
231	}
232
233	priv->io = dpaa2_io_create(&desc, dev);
234	if (!priv->io) {
235		dev_err(dev, "dpaa2_io_create failed\n");
236		err = -ENOMEM;
237		goto err_dpaa2_io_create;
238	}
239
240	err = register_dpio_irq_handlers(dpio_dev, desc.cpu);
241	if (err)
242		goto err_register_dpio_irq;
243
244	dev_info(dev, "probed\n");
245	dev_dbg(dev, "   receives_notifications = %d\n",
246		desc.receives_notifications);
247	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
248
249	return 0;
250
251err_dpaa2_io_create:
252	unregister_dpio_irq_handlers(dpio_dev);
253err_register_dpio_irq:
254	fsl_mc_free_irqs(dpio_dev);
255err_allocate_irqs:
256	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
257err_get_attr:
258err_reset:
259	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
260err_open:
261	fsl_mc_portal_free(dpio_dev->mc_io);
262err_priv_alloc:
263	return err;
264}
265
266/* Tear down interrupts for a given DPIO object */
267static void dpio_teardown_irqs(struct fsl_mc_device *dpio_dev)
268{
269	unregister_dpio_irq_handlers(dpio_dev);
270	fsl_mc_free_irqs(dpio_dev);
271}
272
273static int dpaa2_dpio_remove(struct fsl_mc_device *dpio_dev)
274{
275	struct device *dev;
276	struct dpio_priv *priv;
277	int err = 0, cpu;
278
279	dev = &dpio_dev->dev;
280	priv = dev_get_drvdata(dev);
281	cpu = dpaa2_io_get_cpu(priv->io);
282
283	dpaa2_io_down(priv->io);
284
285	dpio_teardown_irqs(dpio_dev);
286
287	cpumask_set_cpu(cpu, cpus_unused_mask);
288
289	err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
290			&dpio_dev->mc_handle);
291	if (err) {
292		dev_err(dev, "dpio_open() failed\n");
293		goto err_open;
294	}
295
296	dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
297
298	dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
299
300	fsl_mc_portal_free(dpio_dev->mc_io);
301
302	return 0;
303
304err_open:
305	fsl_mc_portal_free(dpio_dev->mc_io);
306
307	return err;
308}
309
310static const struct fsl_mc_device_id dpaa2_dpio_match_id_table[] = {
311	{
312		.vendor = FSL_MC_VENDOR_FREESCALE,
313		.obj_type = "dpio",
314	},
315	{ .vendor = 0x0 }
316};
317
318static struct fsl_mc_driver dpaa2_dpio_driver = {
319	.driver = {
320		.name		= KBUILD_MODNAME,
321		.owner		= THIS_MODULE,
322	},
323	.probe		= dpaa2_dpio_probe,
324	.remove		= dpaa2_dpio_remove,
325	.match_id_table = dpaa2_dpio_match_id_table
326};
327
328static int dpio_driver_init(void)
329{
330	if (!zalloc_cpumask_var(&cpus_unused_mask, GFP_KERNEL))
331		return -ENOMEM;
332	cpumask_copy(cpus_unused_mask, cpu_online_mask);
333
334	return fsl_mc_driver_register(&dpaa2_dpio_driver);
335}
336
337static void dpio_driver_exit(void)
338{
339	free_cpumask_var(cpus_unused_mask);
340	fsl_mc_driver_unregister(&dpaa2_dpio_driver);
341}
342module_init(dpio_driver_init);
343module_exit(dpio_driver_exit);
344